JP2022190724A - Display control device, head-up display device and display control method - Google Patents
Display control device, head-up display device and display control method Download PDFInfo
- Publication number
- JP2022190724A JP2022190724A JP2021099106A JP2021099106A JP2022190724A JP 2022190724 A JP2022190724 A JP 2022190724A JP 2021099106 A JP2021099106 A JP 2021099106A JP 2021099106 A JP2021099106 A JP 2021099106A JP 2022190724 A JP2022190724 A JP 2022190724A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- display
- eye
- correction amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012937 correction Methods 0.000 claims abstract description 138
- 238000003702 image correction Methods 0.000 claims abstract description 64
- 230000008859 change Effects 0.000 claims abstract description 48
- 230000008569 process Effects 0.000 claims description 39
- 230000015654 memory Effects 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 73
- 230000033001 locomotion Effects 0.000 abstract description 51
- 238000001514 detection method Methods 0.000 description 60
- 238000010586 diagram Methods 0.000 description 33
- 210000003128 head Anatomy 0.000 description 28
- 238000004891 communication Methods 0.000 description 25
- 238000003384 imaging method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000001028 reflection method Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101100522111 Oryza sativa subsp. japonica PHT1-11 gene Proteins 0.000 description 1
- 101100522114 Oryza sativa subsp. japonica PHT1-12 gene Proteins 0.000 description 1
- 101100522115 Oryza sativa subsp. japonica PHT1-13 gene Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
本開示は、車両等の移動体で使用され、移動体の前景(車両の乗員から見た移動体の前進方向の実景)に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等に関する。 The present disclosure relates to a display control device, a head-up display device, and a head-up display device that are used in a mobile object such as a vehicle and superimpose an image on the foreground of the mobile object (actual view in the forward direction of the mobile object seen from the vehicle occupant). It relates to a display control method and the like.
特許文献1には、車両のフロントウインドシールド等の被投影部に投射される表示光が、車両の内側にいる車両の乗員(観察者)に向けて反射されることで、観察者に、車両の前景と重なる虚像を視認させるヘッドアップディスプレイ装置(虚像表示装置の一例)が記載されている。特に、特許文献1に記載のヘッドアップディスプレイ装置は、前景の実空間内の奥行きや上下左右方向の所定の位置(ここでは、前記位置をターゲット位置ということにする。)に仮想的に表示オブジェクト(虚像)を知覚させ、車両の姿勢の変化があった場合や観察者の目位置の変化があった場合であっても、あたかも前景のターゲット位置に表示オブジェクトが存在するかのように、ヘッドアップディスプレイ装置の内部で表示する画像を制御する。すなわち、このようなヘッドアップディスプレイ装置は、現実の風景(前景)に仮想オブジェクトを付加して表示する拡張現実を形成し、車両の姿勢の変化(これも実景に対する観察者の目位置の変化につながる)や車両内で観察者の目位置の変化した際でも、カメラ等の目位置検出部で検出された観察者の目位置の変化に応じて、ヘッドアップディスプレイ装置の内部で表示する画像の位置等を補正することで、仮想オブジェクトに運動視差を与え、仮想オブジェクトが前景中(実景中)の前記ターゲット位置にあたかもあるかのように擬似的に観察者に知覚させることができる。
In
ところで、カメラなどの目位置検出部は、撮像した画像などを複雑なアルゴリズムにより、観察者の目位置(左右の目位置)を検出するが、例えば、観察者の目位置が左右方向に所定の移動量しか動いていない場合でも、検出環境によっては検出誤差や誤検出などにより、所定の移動量以上の移動量に動いていると検出(誤検出)される場合がある。そして、仮想オブジェクトへの運動視差画像は、誤検出された移動量に応じて補正され得る。これにより、左右方向の画像の位置補正は、観察者の目の位置の移動量以上となり、観察者の実感以上の移動量となり、観察者に違和感を与えることが想定され得る。 By the way, an eye position detector such as a camera detects the positions of the observer's eyes (right and left eye positions) by using a complex algorithm from captured images. Even if the object moves by only the amount of movement, it may be detected (erroneously detected) that the amount of movement exceeds a predetermined amount of movement due to detection errors or false detections depending on the detection environment. Then, the motion parallax image to the virtual object can be corrected according to the erroneously detected amount of movement. As a result, the position correction of the image in the left-right direction is greater than the amount of movement of the position of the observer's eyes, and the amount of movement is greater than the observer's real feeling, which may give the observer a sense of discomfort.
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of certain embodiments disclosed herein follows. It should be understood that these aspects are presented only to provide the reader with an overview of these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may encompass various aspects not described below.
本開示の概要は、観察者に違和感のない運動視差を与える表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等を提供することに関する。 An overview of the present disclosure relates to providing a display control device, a head-up display device, a display control method, and the like that provide a motion parallax that does not give an observer a sense of discomfort.
したがって、本明細書に記載される表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等は、前記課題を解決するため、以下の手段を採用した。本実施形態は、画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、1つ又は複数のプロセッサ(33)と、メモリ(37)と、前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行することを特徴とする。 Therefore, the display control device, the head-up display device, the display control method, and the like described in this specification employ the following means in order to solve the above problems. This embodiment comprises at least a display (40) for displaying an image, and a relay optical system (80) for projecting the light of the image displayed by the display (40) onto a projection target member. A display control device (30) for performing display control in a head-up display device (20) for visually superimposing a virtual image of the image on the foreground, comprising: one or more processors (33); a memory (37); , one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33); and detecting real objects present in the vicinity of said vehicle. and a sensor (411) outside the vehicle, wherein the processor (33) detects the user's eye position and/or head position (Py) in the vertical direction of the vehicle and the eye position and/or head position (Py) in the horizontal direction of the vehicle. A position (Px) is obtained, and a first correction amount (Cx, Cy) a first image correction process (S160) for correcting the position of the image displayed on the display (40); a second image correction process (S170) for correcting with a second correction amount (Cxq1, Cyr1) obtained by multiplying (Cx, Cy) by a first predetermined coefficient (Q1, R1) that is 1 or less; , performing the first image correction process when a distance (D4) from the vehicle to the real object in the foreground is less than or equal to a first distance threshold; The second image correction process (S170) is performed when the distance (D4) to the image is larger than the first distance threshold.
以下、図1ないし図6、及び図7B乃至図13では、例示的な車両用表示システムの構成、及び動作の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 1-6 and 7B-13, below, provide a description of the configuration and operation of an exemplary vehicular display system. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Of course, modifications (including deletion of constituent elements) can be added to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.
図1を参照する。図1は、視差式3D-HUD装置を含む車両用虚像表示システムの構成の一例を示す図である。なお、図1において、車両(移動体の一例。)1の左右方向(換言すると、自車両1の幅方向)をX軸(X軸の正方向は、自車両1の前方を向いた際の左方向。)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6)に直交する線分に沿う上下方向(換言すると、自車両1の高さ方向)をY軸(Y軸の正方向は、上方向。)とし、左右方向及び上下方向の各々に直交する線分に沿う前後方向をZ軸(Z軸の正方向は、自車両1の直進方向。)とする。この点は、他の図面においても同様である。
Please refer to FIG. FIG. 1 is a diagram showing an example of the configuration of a vehicle virtual image display system including a parallax 3D-HUD device. In FIG. 1, the left-right direction of a vehicle (an example of a moving body) 1 (in other words, the width direction of the vehicle 1) is the X axis (the positive direction of the X axis is the forward direction of the vehicle 1). leftward), and the vertical direction (in other words, the height direction of the vehicle 1) along a line segment that is orthogonal to the horizontal direction and orthogonal to the ground or a surface equivalent to the ground (here, the road surface 6) is the Y axis. (The positive direction of the Y-axis is the upward direction.), and the front-rear direction along a line segment perpendicular to each of the left-right direction and the vertical direction is the Z-axis (the positive direction of the Z-axis is the straight traveling direction of the
図示するように、車両(自車両)1に備わる車両用表示システム10は、観察者(典型的には自車両1の運転席に着座する運転者)の左目700Lと右目700Rの位置や視線方向を検出する瞳(あるいは顔)検出用の目位置検出部409、自車両1の前方(広義には周囲)を撮像するカメラ(例えばステレオカメラ)などで構成される車外センサ411、ヘッドアップディスプレイ装置(以下では、HUD装置とも呼ぶ)20及び、HUD装置20を制御する表示制御装置30、などで構成される。
As illustrated, the
図2は、ヘッドアップディスプレイ装置の構成の一態様を示す図である。HUD装置20は、例えばダッシュボード(図1の符号5)内に配置される。このHUD装置20は、立体表示装置(表示器の一例。)40、リレー光学系80及び、これら立体表示装置40とリレー光学系80を収納し、立体表示装置40からの表示光Kを内部から外部に向けて出射可能な光出射窓21を有する筐体22、を有する。
FIG. 2 is a diagram showing one aspect of the configuration of the head-up display device. The
立体表示装置40は、ここでは視差式3D表示装置とする。この立体表示装置(視差式3D表示装置)40は、左視点画像と右視点画像とを視認させることで奥行き表現を制御可能な多視点画像表示方式を用いた裸眼立体表示装置である光変調素子50及び、バックライトとして機能する光源ユニット60、により構成される。
The
光変調素子50は、光源ユニット60からの照明光を光変調して画像を生成する光変調素子51及び、例えば、レンチキュラレンズやパララックスバリア(視差バリア)等を有し、光変調素子51から出射される光を、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)とに分離する光学レイヤ(光線分離部の一例。)52、を有する。光学レイヤ52は、レンチキュラレンズ、パララックスバリア、レンズアレイ及び、マイクロレンズアレイなどの光学フィルタを含む。但し、これは一例であり、限定されるものではない。光学レイヤ52の実施形態は、前述した光学フィルタに限定されることなく、光変調素子51から出射される光から左目用表示光(図1の符号K10)及び右目用表示光(図1の符号K20)を生成するものであれば、光変調素子51の前面又は後面に配置される全ての形態の光学レイヤを含む。光学レイヤ52のいくつかの実施形態は、電気的に制御されることで、光変調素子51から出射される光から左目用表示光(図1の符号K10)及び右目用表示光(図1の符号K20)を生成するものであってもよく、例えば、液晶レンズなどが挙げられる。すなわち、光学レイヤ52の実施形態は、電気的制御されるものと、電気的制御されないものと、を含み得る。
The light modulation element 50 has a light modulation element 51 that modulates the illumination light from the
また、立体表示装置40は、光学レイヤ(光線分離部の一例。)52の代わりに又は、それに加えて、光源ユニット60を指向性バックライトユニット(光線分離部の一例。)で構成することで、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)と、を出射させてもよい。具体的に、例えば、後述する表示制御装置30は、指向性バックライトユニットが左目700Lに向かう照明光を照射した際に、光変調素子51に左視点画像を表示させることで、左目用の光線K11、K12及び、K13等の左目用表示光K10を、観察者の左目700Lに向け、指向性バックライトユニットが右目700Rに向かう照明光を照射した際に、光変調素子51に右視点画像を表示させることで、右目用の光線K21、K22及び、K23等の右目用表示光K20を、観察者の右目700Rに向ける。但し、これは一例であり、限定されるものではない。
Also, in the
後述する表示制御装置30は、例えば、画像レンダリング処理(グラフィック処理)、表示器駆動処理などを実行することで、観察者の左目700Lへ左視点画像V10の左目用表示光K10及び、右目700Rへ右視点画像V20の右目用表示光K20、を向け、左視点画像V10及び右視点画像V20を調整することで、HUD装置20が表示する(観察者が知覚する)知覚虚像FUの態様を制御することができる。なお、後述する表示制御装置30は、一定空間に存在する点などから様々な方向に出力される光線をそのまま(概ね)再現するライトフィールドを生成するように、ディスプレイ(光変調素子50)を制御してもよい。
The
リレー光学系80は、立体表示装置40からの光を反射し、画像の表示光K10、K20を、ウインドシールド(被投影部材)2に投影する曲面ミラー(凹面鏡等)81、82を有する。但し、その他の光学部材(レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材又は、これらの組み合わせを含んでいてもよい。)を、さらに有してもよい。
The relay
図1では、HUD装置20の立体表示装置40によって、左右の各目用の、視差をもつ画像(視差画像)が表示される。各視差画像は、図1に示されるように、虚像表示面(虚像結像面)VSに結像したV10、V20として表示される。観察者(人)の各目のピントは、虚像表示領域VSの位置に合うように調節される。なお、虚像表示領域VSの位置を、「調節位置(又は結像位置)」と称し、また、所定の基準位置(例えば、HUD装置20のアイボックス200の中心205、観察者の視点位置、観察者の頭位置、又は、自車両1の特定位置など)から虚像表示領域VSまでの距離(図4の符号D10を参照)を調節距離(結像距離)と称する。
In FIG. 1, the
但し、実際は、人の脳が、各画像(虚像)を融像するため、人は、調節位置よりもさらに奥側である位置(例えば、左視点画像V10と右視点画像V20との輻輳角によって定まる位置であり、輻輳角が小さくなるほど、観察者から離れた位置にあるように知覚される位置)に、知覚画像(ここでは、ナビゲーション用の矢先の図形)FUが表示されているように認識する。なお、知覚虚像FUは、「立体虚像」と称される場合があり、また、「画像」を広義に捉えて虚像も含まれるとする場合には、「立体画像」と称することもできる。また、「立体像」、「3D表示」等と称される場合がある。なお、HUD装置20は、調節位置よりも手前側である位置に、知覚虚像FUが視認されるように、左視点画像V10及び右視点画像V20を表示し得る。
However, in reality, since the human brain fuses each image (virtual image), the human is at a position farther back than the adjustment position (for example, due to the convergence angle between the left viewpoint image V10 and the right viewpoint image V20). It is a fixed position, and the position perceived as being farther away from the observer as the angle of convergence decreases) is recognized as a perceptual image (here, an arrowhead figure for navigation) FU is displayed. do. Note that the perceptual virtual image FU may be referred to as a "stereoscopic virtual image", and may also be referred to as a "stereoscopic image" when the "image" is taken in a broad sense to include virtual images. It may also be referred to as a "stereoscopic image", "3D display", or the like. The
次に、図3及び、図4を参照する。図3は、自車両1の走行中において、観察者が視認する前景と、前記前景に重畳して表示される知覚画像の例を示す図である。図4は、虚像結像面に表示される左視点虚像と右視点虚像と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像と、の位置関係を概念的に示した図である。
Next, refer to FIGS. 3 and 4. FIG. FIG. 3 is a diagram showing an example of a foreground visually recognized by an observer and a perceptual image superimposed on the foreground and displayed while the
図3において、自車両1は、直線状の道路(路面)6を走行している。HUD装置20は、ダッシュボード5内に配置されている。HUD装置20の光出射窓21から表示光K(K10,K20)を被投影部(自車両1のフロントウインドシールド)2に投影する。図3の例では、路面6に重畳し、自車両1の経路(ここでは直進を示す。)を指示する第1のコンテンツ画像FU1及び、同じく自車両1の経路(ここでは直進を示す。)を指示し、第1のコンテンツ画像FU1より遠方に知覚される第2のコンテンツ画像FU2、を表示する。
In FIG. 3 , the
図4の左図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第1の左視点コンテンツ画像V11を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第1の右視点コンテンツ画像V21を結像する。視差を有する第1の左視点コンテンツ画像V11及び、第1の右視点コンテンツ画像V21により知覚される第1のコンテンツ画像FU1は、虚像表示領域VSよりも距離D21だけ奥側である位置(上記の基準位置から距離D31だけ離れた位置)において視認される。
As shown in the left diagram of FIG. 4, the HUD device 20 (1) detects the
同様に、図4の右図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第2の左視点コンテンツ画像V12を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第2の右視点コンテンツ画像V22を結像する。視差を有する第2の左視点コンテンツ画像V12及び、第2の右視点コンテンツ画像V22により知覚される第2のコンテンツ画像FU2は、虚像表示領域VSよりも距離D22だけ奥側である位置(上記の基準位置から距離D32だけ離れた位置)において視認される。
Similarly, as shown in the right diagram of FIG. 4 , the HUD device 20 (1) detects the
具体的には、上記の基準位置から虚像表示領域VSまでの距離(結像距離(第1の距離閾値)D10)は、例えば「4m」の距離に設定され、上記の基準位置から図4の左図に示される第1のコンテンツ画像FU1及までの距離(第1の知覚距離D31)は、例えば「7m」の距離に設定され、上記の基準位置から図4の右図に示される第2のコンテンツ画像FU2までの距離(第2の知覚距離D32)は、例えば「10m」の距離に設定される。但し、これは一例であり、限定されるものではない。 Specifically, the distance (imaging distance (first distance threshold) D10) from the reference position to the virtual image display area VS is set to a distance of, for example, "4 m". The distance (first perceptual distance D31) to the first content image FU1 shown in the left diagram is set to a distance of, for example, "7 m". to the content image FU2 (second perceptual distance D32) is set to, for example, "10 m". However, this is an example and is not limited.
図5は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。なお、図5に示すHUD装置20は、3D表示ではない2D表示をする例を示している。すなわち、図5に示すHUD装置20の表示器40は、立体表示装置ではない2D表示装置である(なお、立体表示装置でも2D表示は可能である。)。図5に表したように、観視者の目位置700から見て、奥行き方向をZ軸方向とし、左右方向(自車両1の幅方向)をX軸方向とし、上下方向(自車両1の上下方向)をY軸方向とする。なお、観視者から見て遠ざかる方向をZ軸の正の方向とし、観視者から見て左方向がX軸の正の方向とし、観視者から見て上方向をY軸の正の方向とする。
FIG. 5 is a diagram conceptually showing a virtual object placed at a target position in the real scene and an image displayed in the virtual image display area such that the virtual object is visually recognized at the target position in the real scene. Note that the
観視者の目位置700は、被投影部2を介して虚像表示領域VSに形成された(結像された)虚像Vを視認することで、実景の所定のターゲット位置PTに、仮想オブジェクトFUを知覚する。観視者は、被投影部2で反射した表示光Kの映像の虚像Vを視認する。この時、虚像Vが、例えば進路を示す矢印である場合、自車両1の前景の所定のターゲット位置PTに仮想オブジェクトFUが配置されて視認されるように、虚像Vの矢印は虚像表示領域VSに表示される。具体的には、HUD装置20(表示制御装置30)は、観察者の左目700Lと右目700Rとの中心を射影変換の原点として、ターゲット位置PTに配置した所定のサイズ・形状の仮想オブジェクトFUを虚像表示領域VSに射影変換した所定のサイズ・形状の虚像Vが表示されるように表示器40に表示する画像をレンダリングする。そして、HUD装置20(表示制御装置30)は、観察者が目位置を移動した場合でも、目位置が移動する前と同じターゲット位置PTに仮想オブジェクトFUが知覚されるように、虚像表示領域VSに表示される虚像Vの位置を変更することで、ターゲット位置PTとは離れた位置(虚像表示領域VS)に表示されているにもかかわらず、仮想オブジェクトFU(虚像V)がターゲット位置PTにあるかのように認識させることができる。すなわち、HUD装置20(表示制御装置30)は、自然な運動視差を、目位置の移動に基づいて表示器40上の画像(虚像表示領域VS内の虚像V)の位置の変更(これに、サイズの変更や形状の変更が加わっても良い。)により表現している(換言すると、HUD装置20は、目位置の移動に伴う画像補正で、虚像(画像)に運動視差を付加することで、奥行き知覚を感得しやすくしている)。
The viewer's
本実施形態の説明では、このような目位置の変化に応じて、運動視差を表現するような画像位置の補正を、運動視差付加処理(目追従性画像補正処理の一例。)と呼ぶ。前記運動視差付加処理は、自然な運動視差を完全に再現するような画像位置の補正だけに限定されるのではなく、自然な運動視差に近づけるような画像位置の補正も含んでいてもよい。なお、HUD装置20(表示制御装置30)は、目位置700の変化に応じて、運動視差付加処理(目追従性画像補正処理の一例。)だけではなく、目位置700の代わりに、観察者の頭位置710に基づいて、運動視差付加処理(目追従性画像補正処理の一例。)を実行してもよい。
In the description of the present embodiment, image position correction that expresses motion parallax in accordance with such a change in eye position is referred to as motion parallax addition processing (an example of eye-tracking image correction processing). The motion parallax adding process is not limited to image position correction that perfectly reproduces natural motion parallax, but may also include image position correction that approximates natural motion parallax. Note that the HUD device 20 (display control device 30) performs motion parallax addition processing (an example of eye-tracking image correction processing) in response to a change in the
図6は、本実施形態における運動視差付加処理の方法を説明するための図である。本実施形態の表示制御装置30(プロセッサ33)は、HUD装置20を制御し、被投影部2を介して虚像表示領域VSに形成された(結像された)虚像V41、V42、及びV43を表示する。虚像V41は、知覚距離D33(虚像表示領域VSよりも距離D23だけ奥側である位置)であるターゲット位置PT11に設定され、虚像V42は、虚像V41の知覚距離D33より長い知覚距離D34(虚像表示領域VSよりも距離D24(>D23)だけ奥側である位置)であるターゲット位置PT12に設定され、そして、虚像V43は、虚像V42の知覚距離D34より長い知覚距離D35(虚像表示領域VSよりも距離D25(>D24)だけ奥側である位置)であるターゲット位置PT13に設定される。なお、表示器40での画像の補正量は、虚像表示領域VSでの虚像の補正量に対応するため、図6では、表示器40での画像の補正量C1、C2、及びC3に対応する虚像の補正量も同じ符号C1、C2、及びC3を用いている(図8の符号Cy11(Cy)、Cy21(Cy)も同様)。
FIG. 6 is a diagram for explaining a method of motion parallax addition processing in this embodiment. The display control device 30 (processor 33) of the present embodiment controls the
観察者の頭位置710(目位置700)が符号Px11の位置から右側(X軸負の方向)にΔPx10だけ移動した場合、表示制御装置30(プロセッサ33)は、運動視差付加処理を実行することで、虚像表示領域VSに表示される虚像V41,V42,V43が表示される位置を、観察者の頭位置710部(目位置700)が移動したのと同じ方向に、それぞれ補正量C1,C2(>C1),C3(>C2)だけ補正する。図7Aは、本実施形態の運動視差付加処理を行わなかった場合の、図6に示す位置Px12から視認する虚像V41,V42,V43を示す比較例であり、図7Bは、本実施形態の運動視差付加処理を行った場合の、図6に示す位置Px12から視認する虚像V44,V45,V46を示す図である。なお、図7Bでは、補正量の違いがわかりやすいように、虚像V44,V45,V46の位置の違いを誇張して描いてあることに留意されたい。すなわち、表示制御装置30(プロセッサ33)は、複数の虚像V41,V42,V43の知覚距離D33,D34,D35の違いにより、目位置の移動に伴う複数の虚像V41,V42,V43の位置の補正量を異ならせることで、複数の虚像V41(V44),V42(V45),V43(V46)の間だけでも運動視差を観察者に感得させることができる。より具体的には、表示制御装置30(プロセッサ33)は、設定される知覚距離D30が長いほど、前記運動視差付加処理における補正量を大きくすることで、複数の虚像V41(V44),V42(V45),V43(V46)に運動視差を付加している。 When the observer's head position 710 (eye position 700) moves rightward (in the negative direction of the X axis) by ΔPx10 from the position indicated by reference sign Px11, the display control device 30 (processor 33) executes motion parallax addition processing. , the display positions of the virtual images V41, V42, and V43 displayed in the virtual image display area VS are corrected by the correction amounts C1 and C2, respectively, in the same direction as the observer's head position 710 (eye position 700). (>C1) and C3 (>C2) are corrected. FIG. 7A is a comparative example showing virtual images V41, V42, and V43 viewed from position Px12 shown in FIG. 7 is a diagram showing virtual images V44, V45, and V46 viewed from a position Px12 shown in FIG. 6 when parallax addition processing is performed; FIG. Note that in FIG. 7B, the difference in the positions of the virtual images V44, V45, and V46 is exaggerated so that the difference in correction amount can be easily understood. That is, the display control device 30 (processor 33) corrects the positions of the plurality of virtual images V41, V42, V43 according to the movement of the eye position due to the difference in the perceived distances D33, D34, D35 of the plurality of virtual images V41, V42, V43. By varying the amounts, the observer can perceive the motion parallax only between the virtual images V41 (V44), V42 (V45), and V43 (V46). More specifically, the display control device 30 (processor 33) increases the amount of correction in the motion parallax adding process as the perceived distance D30 set is longer, so that the plurality of virtual images V41 (V44) and V42 ( V45) and V43 (V46) are added with motion parallax.
図8は、本実施形態における目位置(頭位置)が上下方向に移動した際の運動視差付加処理の方法を説明するための図である。観察者の頭位置710(目位置700)が符号Py12の位置から上側(Y軸正の方向)に移動した場合、表示制御装置30(プロセッサ33)は、運動視差付加処理を実行することで、虚像表示領域VSに表示される虚像Vが表示される位置を、図8(a)に示すように、観察者の頭位置710(目位置700)が移動したのと同じ方向(上側(Y軸正の方向))に、補正量Cy11だけ補正する(虚像Vの位置を符号V48の位置から符号V47に変更する)。また、観察者の頭位置710(目位置700)が符号Py12の位置から下側(Y軸負の方向)に移動した場合、表示制御装置30(プロセッサ33)は、運動視差付加処理を実行することで、虚像表示領域VSに表示される虚像Vが表示される位置を、図8(c)に示すように、観察者の頭位置710(目位置700)が移動したのと同じ方向(下側(Y軸負の方向))に、補正量Cy21だけ補正する(虚像Vの位置を符号V48の位置から符号V49に変更する)。これにより、ターゲット位置PTとは離れた位置(虚像表示領域VS)に表示されているにもかかわらず、仮想オブジェクトFU(虚像V)がターゲット位置PTにあるかのように認識させることができる(仮想オブジェクトFU(虚像V)がターゲット位置PTにあるかのような感覚を増強することができる)。 FIG. 8 is a diagram for explaining a method of motion parallax addition processing when the eye position (head position) moves in the vertical direction in this embodiment. When the observer's head position 710 (eye position 700) moves upward (in the positive Y-axis direction) from the position indicated by Py12, the display control device 30 (processor 33) executes motion parallax adding processing to As shown in FIG. 8A, the position where the virtual image V displayed in the virtual image display area VS is displayed is the same direction (upward (Y-axis In the positive direction)), the correction amount Cy11 is corrected (the position of the virtual image V is changed from the position of the reference V48 to the reference V47). Further, when the observer's head position 710 (eye position 700) moves downward (Y-axis negative direction) from the position indicated by Py12, the display control device 30 (processor 33) executes motion parallax addition processing. As a result, the virtual image V displayed in the virtual image display area VS is displayed in the same direction (downward) as the observer's head position 710 (eye position 700) is moved, as shown in FIG. side (Y-axis negative direction)) by the correction amount Cy21 (the position of the virtual image V is changed from the position of V48 to V49). As a result, although the virtual object FU (virtual image V) is displayed at a position (virtual image display area VS) distant from the target position PT, it can be recognized as if it were at the target position PT ( It is possible to enhance the feeling as if the virtual object FU (virtual image V) is at the target position PT).
図9は、自車両1の運転席から観察者が前方を向いた際に視認する、前景に存在する実オブジェクト300と、本実施形態のHUD装置20が表示する虚像Vと、を示す図である。図9に示す虚像Vは、実オブジェクト300の位置に応じて、表示される位置を変化させ得るAR虚像V60と、実オブジェクト300の位置によらず、表示される位置が設定される虚像を非AR虚像V70と、を含む。AR虚像V60は、実景に存在する実オブジェクト300の位置に対応する位置(ターゲット位置PT)に表示される。AR虚像V60は、例えば、実オブジェクト300に重畳する位置、又は実オブジェクト300の近傍に表示され、当該実オブジェクト300の存在を強調して報知する。つまり、「実オブジェクト300の位置に対応する位置(ターゲット位置PT)」とは、観察者から見て、実オブジェクト300に重畳して視認される位置に限られず、実オブジェクト300の近傍の位置であってもよい。なお、AR虚像V60は、実オブジェクト300の視認を妨げない態様であれば、任意である。
FIG. 9 is a diagram showing a
図9に示すAR虚像V60は、案内経路を示すナビ虚像V61、V62、注意対象を強調して報知する強調虚像V64、V65、及び目標物や所定の建物などを指示するPOI虚像V65などである。実オブジェクト300の位置に対応する位置(ターゲット位置PT)は、ナビ虚像V61、V62ではこれらが重畳される路面311(実オブジェクト300の一例。)の位置であり、強調虚像V63では人物313(実オブジェクト300の一例。)の周囲の位置であり、強調虚像V64では他車両314(実オブジェクト300の一例。)の近傍側の位置であり、そして、POI虚像V65では建物315(実オブジェクト300の一例。)の周囲の位置である。表示制御装置30(プロセッサ33)は、上記したように、虚像Vに設定される知覚距離D30が長いほど、前記運動視差付加処理における観察者の目位置の移動に伴う補正量Cを大きくする。すなわち、図9に示す虚像Vに設定される知覚距離D30が長い方からV65→V64→V63→V62→V61の順だとすると、表示制御装置30(プロセッサ33)は、観察者の目位置の移動に伴う補正量Cを、V65の補正量>V64の補正量>V63の補正量>V62の補正量>V61の補正量のように設定する。なお、虚像V62と虚像V61は、同種の虚像であり、近接して表示されているため、表示制御装置30(プロセッサ33)は、観察者の目位置の移動に伴うV62の補正量とV61の補正量を同じに設定してもよい。
The AR virtual images V60 shown in FIG. 9 include navigation virtual images V61 and V62 that indicate guidance routes, enhanced virtual images V64 and V65 that highlight and notify attention targets, and POI virtual images V65 that indicate targets, predetermined buildings, and the like. . The position (target position PT) corresponding to the position of the
また、いくつかの実施形態の表示制御装置30(プロセッサ33)は、非AR虚像V70において、観察者の目位置の移動に伴う補正量Cをゼロとしてもよい(観察者の目位置の移動に伴って補正しなくてもよい)。 Further, the display control device 30 (processor 33) of some embodiments may set the correction amount C associated with the movement of the observer's eye position to zero in the non-AR virtual image V70 ( need not be corrected accordingly).
また、いくつかの実施形態の表示制御装置30(プロセッサ33)は、非AR虚像V70において、観察者の目位置の移動に伴い補正してもよい。図9に示す例では、非AR虚像V70(V71、V72)は、虚像表示領域VSの下方に配置され、これらと重なる実オブジェクト300である路面311の領域は、図9のナビ虚像V61が重なる路面311の領域よりも自車両1に近い。すなわち、いくつかの実施形態の表示制御装置30(プロセッサ33)は、非AR虚像V70(V71、V72)の知覚距離D30を、AR虚像V60(狭義に言えば、AR虚像V60の中で最も下方に配置されるナビ虚像V61)の知覚距離D30よりも短く設定し、観察者の目位置の移動に伴う非AR虚像V70の補正量Cを、観察者の目位置の移動に伴うAR虚像V60(狭義に言えば、AR虚像V60の中で最も下方に配置されるナビ虚像V61)の補正量Cより小さく設定してもよい。
Further, the display control device 30 (processor 33) of some embodiments may correct the non-AR virtual image V70 according to the movement of the observer's eye position. In the example shown in FIG. 9, the non-AR virtual images V70 (V71, V72) are arranged below the virtual image display area VS, and the area of the
図10は、いくつかの実施形態に係る、車両用虚像表示システムのブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図3に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図10は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。
FIG. 10 is a block diagram of a vehicular virtual image display system, according to some embodiments. The
図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(表示器40)の制御を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。
As shown,
図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401及び/又は、他の電子機器(後述する符号403~419)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。
As shown,
図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、操作検出部407、目位置検出部409、車外センサ411、明るさ検出部413、IMU415、携帯情報端末417、及び外部通信機器419などが動作可能に連結される。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
As shown, the
表示器40は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、光変調素子51によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、光変調素子51が表示する画像を制御する。
車両ECU401は、自車両1に設けられたセンサやスイッチから、自車両1の状態(例えば、起動スイッチ(例えば、アクセサリスイッチ:ACCやイグニッションスイッチ:IGN)のON/OFF状態(起動情報の一例。)、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、自車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、自車両1の前記状態の数値(例えば、自車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ33へ送信することに加え、又はこれに代わり、センサで検出した数値を含む自車両1の1つ又は複数の状態に基づく判定結果(例えば、自車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、自車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。なお、I/Oインタフェース31は、車両ECU401を介さずに、自車両1に設けられた自車両1に設けられたセンサやスイッチから、上記したような情報を取得してもよい。
The
また、車両ECU401は、車両用表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。
In addition, the
道路情報データベース403は、自車両1に設けられた図示しないナビゲーション装置、又は自車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバー、に含まれ、後述する自車位置検出部405から取得される自車両1の位置に基づき、自車両1の周辺の情報(自車両1の周辺の実オブジェクト関連情報)である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号、又は経路を示す画像データをプロセッサ33へ出力してもよい。
The
自車位置検出部405は、自車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の自車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末417、及び/もしくは外部通信機器419へ出力する。道路情報データベース403、後述する携帯情報端末417、及び/又は外部通信機器419は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。
The vehicle
操作検出部407は、例えば、自車両1のCID(Center Information Display)、インストルメントパネルなどに設けられたハードウェアスイッチ、又は画像とタッチセンサなどとを兼ね合わされたソフトウェアスイッチなどであり、自車両1の乗員(運転席の着座するユーザー、及び/又は助手席に着座するユーザー)による操作に基づく操作情報を、プロセッサ33へ出力する。例えば、操作検出部407は、ユーザーの操作により、虚像表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、観察者の目位置700を設定する操作に基づく情報などを、プロセッサ33へ出力する。
The
目位置検出部409は、自車両1の運転席に着座する観察者の目位置700(図1参照。)を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部409から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出し、検出した目位置700の座標を示す信号を、プロセッサ33へ出力してもよい。
The eye
また、目位置検出部409は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、予め設定された複数の表示パラメータが対応する空間的な領域のどこに属しているかを示す信号。)を、プロセッサ33に出力してもよい。なお、自車両1の観察者の目位置700、又は観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。
In addition, the eye
また、目位置検出部409は、観察者の目位置700の移動速度、及び/又は移動方向を検出し、観察者の目位置700の移動速度、及び/又は移動方向を示す信号を、プロセッサ33に出力してもよい。
Further, the eye
また、目位置検出部409は、視線方向検出部409としての機能を有していても良い。視線方向検出部409は、自車両1の運転席に着座する観察者の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報の一例。)を取得し、この撮像画像を解析することで観察者の視線方向(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部409は、カメラからの撮像画像を解析し、解析結果である観察者の視線方向(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、自車両1の観察者の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線目底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
Also, the eye
車外センサ411は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する。車外センサ411が検知する実オブジェクトは、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラ、又はこれらの組み合わせからなる検出ユニットと、当該1つ又は複数の検出ユニットからの検出データを処理する(データフュージョンする)処理装置と、から構成される。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。
The
1つ又は複数の車外センサ411は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。ここで、検出された実オブジェクト300の自車両1からの相対的な距離を物体距離(実オブジェクトまでの距離)D4とする。
One or a plurality of
明るさ検出部413は、自車両1の車室の前方に存在する前景の所定範囲の照度又は輝度を外界明るさ(明るさ情報の一例)、又は車室内の照度又は輝度を車内明るさ(明るさ情報の一例)として検知する。明るさ検出部413は、例えばフォトトランジスタ若しくはフォトダイオード等であり、図1に示す自車両1のインストルメントパネル、ルームミラー又はHUD装置20等に搭載される。
The
IMU415は、慣性加速に基づいて、自車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を検知するように構成された1つ又は複数のセンサ(例えば、加速度計及びジャイロスコープ)の組み合わせを含むことができる。IMU415は、検出した値(前記検出した値は、自車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を示す信号などを含む。)、検出した値を解析した結果を、プロセッサ33に出力してもよい。前記解析した結果は、前記検出した値が、所定の条件を満たしたか否かの判定結果を示す信号などであり、例えば、自車両1の位置又は向きの変化(変化速度、変化加速度)に関する値から、自車両1の挙動(振動)が少ないことを示す信号であってもよい。
The
携帯情報端末417は、スマートフォン、ノートパソコン、スマートウォッチ、又は観察者(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末417とペアリングすることで、携帯情報端末417と通信を行うことが可能であり、携帯情報端末417(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末417は、例えば、上記の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末417は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末417は、携帯情報端末417の所持者(例えば、観察者)のスケジュール情報、携帯情報端末417での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。
The
外部通信機器419は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器419は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器419は、上記の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上記の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器419から取得される情報は、上記のものに限定されない。
The
メモリ37に記憶されたソフトウェア構成要素は、目位置検出モジュール502、目位置推定モジュール504、目位置予測モジュール506、目位置状態判定モジュール508、車両状態判定モジュール510、目追従性画像処理モジュール512、グラフィックモジュール514、光源駆動モジュール516、及びアクチュエータ駆動モジュール518、などを含む。
The software components stored in the memory 37 include an eye
図11A、図11B、及び図11Cは、観察者の目位置に基づき、画像補正する動作を実行する方法S100を示すフロー図である。方法S100は、ディスプレイを含むHUD装置20と、このHUD装置20を制御する表示制御装置30と、において実行される。以下に示す方法S100のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。
11A, 11B, and 11C are flow diagrams illustrating a method S100 for performing image correction operations based on observer eye position. The method S100 is performed in a
まず、表示制御装置30(プロセッサ33)は、観察者の目位置700を検出する(ステップS110)。
First, the display control device 30 (processor 33) detects the
(ステップS112)
いくつかの実施形態におけるステップS110において、表示制御装置30(プロセッサ33)は、図10の目位置検出モジュール502を実行することで、目位置検出部409を介して、観察者の目位置700を検出する(目位置700を示す情報を取得する)。目位置検出モジュール502は、観察者の目位置700を示す座標(X,Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さを示す座標(Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。
(Step S112)
In step S110 in some embodiments, the display control device 30 (processor 33) executes the eye
なお、目位置検出モジュール502が検出する目位置700は、右目と左目のそれぞれの位置700R,700L、右目位置700R及び左目位置700Lのうち予め定められた一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される位置(例えば、右目位置と左目位置との中点)、などを含んでいてもよい。例えば、目位置検出モジュール502は、目位置700を、表示設定を更新するタイミングの直前に目位置検出部409から取得した観測位置に基づき決定する。
Note that the
また、目位置検出部409は、目位置検出部409から取得する観察者の目の検出タイミングの異なる複数の観測位置に基づき、観察者の目位置700の移動方向、及び/又は移動速度を検出し、観察者の目位置700の移動方向、及び/又は移動速度を示す信号を、プロセッサ33に出力してもよい。
Further, the eye
(ステップS114)
また、いくつかの実施形態におけるステップS110において、表示制御装置30(プロセッサ33)は、目位置推定モジュール504を実行することで、目位置を推定可能な情報を取得してもよい(ステップS114)。目位置を推定可能な情報は、例えば、目位置検出部409から取得した撮像画像、自車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などである。目位置推定モジュール504は、目位置を推定可能な情報から、自車両1の観察者の目位置700を推定する。目位置推定モジュール504は、目位置検出部409から取得した撮像画像、自車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などから、観察者の目位置700を推定すること、など観察者の目位置700を推定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール504は、目の位置を推定可能な情報から観察者の目位置700を推定するためのテーブルデータ、演算式、などを含み得る。
(Step S114)
Further, in step S110 in some embodiments, the display control device 30 (processor 33) may acquire information that enables eye position estimation by executing the eye position estimation module 504 (step S114). . Information from which the eye positions can be estimated is, for example, the captured image acquired from the eye
(ステップS116)
また、いくつかの実施形態におけるステップS110において、表示制御装置30(プロセッサ33)は、目位置予測モジュール506を実行することで、観察者の目位置700を予測可能な情報を取得してもよい(ステップS116)。観察者の目位置700を予測可能な情報は、例えば、目位置検出部409から取得した最新の観測位置、又は1つ又はそれ以上の過去に取得した観測位置などである。目位置予測モジュール506は、観察者の目位置700を予測可能な情報に基づいて、目位置700を予測することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的に、例えば、目位置予測モジュール506は、新たな表示設定が適用された画像が観察者に視認されるタイミングの、観察者の目位置700を予測する。目位置予測モジュール506は、例えば、最小二乗法や、カルマンフィルタ、α-βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。
(Step S116)
Further, in step S110 in some embodiments, the display control device 30 (processor 33) may acquire information that can predict the
(ステップS120)
次に、表示制御装置30(プロセッサ33)は、所定の条件が充足するかを判定する(ステップS120)。
(Step S120)
Next, the display control device 30 (processor 33) determines whether a predetermined condition is satisfied (step S120).
図11Bは、ステップS130における目位置状態判定モジュール508の動作を説明する図である。 FIG. 11B is a diagram explaining the operation of the eye position state determination module 508 in step S130.
(ステップS130)
いくつかの実施形態におけるステップS120において、表示制御装置30(プロセッサ33)は、図10の目位置状態判定モジュール508を実行することで、ステップS110で取得した目位置を示す情報、目位置を推定可能な情報、又は目位置を予測可能な情報に基づき、目位置700(目位置700の移動)が所定の条件を充足するか判定する。
(Step S130)
In step S120 in some embodiments, the display control device 30 (processor 33) executes the eye position state determination module 508 of FIG. It is determined whether the eye position 700 (movement of the eye position 700) satisfies a predetermined condition based on possible information or information from which the eye position can be predicted.
図12は、所定の周期時間t(t1,t2,t3・・・t10)毎に検出される、(11)上下方向の目位置(又は頭位置でもよい。)Py(Y1,Y2,Y3・・・Y10)、(12)上下方向の目位置(又は頭位置でもよい。)の変化量ΔPy(Py1(=Y2-Y1),Py2(=Y3-Y2),Py3(=Y4-Y3),・・・Py9(=Y10-Y9))、(13)上下方向の目位置(又は頭位置でもよい。)の移動速度Vy(Vy1(=Py1/Δt),Vy2(=Py2/Δt),Vy3(=Py3/Δt),・・・Vy9(=Py9/Δt))、(21)上下方向の目位置(又は頭位置でもよい。)Px(X1,X2,X3・・・X10)、(22)上下方向の目位置(又は頭位置でもよい。)の変化量ΔPx(Px1(=X2-X1),Px2(=X3-X2),Px3(=X4-X3),・・・Px9(=X10-X9))、及び(23)上下方向の目位置(又は頭位置でもよい。)の移動速度Vx(Vx1(=Px1/Δt),Vx2(=Px2/Δt),Vx3(=Px3/Δt),・・・Vx9(=Px9/Δt))を示す表である。 FIG. 12 shows (11) vertical eye position (or head position) Py (Y1, Y2, Y3. ..Y10), (12) Amount of change ΔPy (Py1 (=Y2-Y1), Py2 (=Y3-Y2), Py3 (=Y4-Y3), in vertical eye position (or head position), . . . Py9 (=Y10−Y9)), (13) Moving speed Vy (Vy1 (=Py1/Δt), Vy2 (=Py2/Δt), Vy3 of eye position (or head position) in the vertical direction (=Py3/Δt), . ) Amount of change in eye position (or head position) in the vertical direction ΔPx (Px1 (=X2-X1), Px2 (=X3-X2), Px3 (=X4-X3), ... Px9 (=X10 -X9)), and (23) Movement speed Vx (Vx1 (=Px1/Δt), Vx2 (=Px2/Δt), Vx3 (=Px3/Δt) of eye position (or head position may be used) in the vertical direction , . . . Vx9 (=Px9/Δt)).
(ステップS131)
いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の目位置状態判定モジュール508を実行することで、左右方向の目位置が一方向に連続的に変化した場合、所定の条件を充足すると判定してもよい。目位置状態判定モジュール508は、例えば、図12に示す左右方向の目位置の変化量ΔPxが、Px3(右方向)→Px4(右方向)のように、一方向(ここでは、右方向。)に連続して変化したことが検出された場合、前記所定の条件が充足したと判定してもよい。
(Step S131)
In step S130 in some embodiments, the display control device 30 (processor 33) executes the eye position state determination module 508 of FIG. , it may be determined that a predetermined condition is satisfied. For example, the eye position state determination module 508 determines that the amount of change ΔPx in the eye position in the horizontal direction shown in FIG. , it may be determined that the predetermined condition is satisfied.
(ステップS132)
また、いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の目位置状態判定モジュール508を実行することで、上下方向の目位置が一方向に連続的に変化した場合、所定の条件を充足すると判定してもよい。目位置状態判定モジュール508は、例えば、図12に示す上下方向の目位置の変化量ΔPyが、Py3(下方向)→Py4(下方向)のように、一方向(ここでは、下方向。)に連続して変化したことが検出された場合、前記所定の条件が充足したと判定してもよい。
(Step S132)
Further, in step S130 in some embodiments, the display control device 30 (processor 33) executes the eye position state determination module 508 of FIG. If so, it may be determined that a predetermined condition is satisfied. For example, the eye position state determination module 508 determines that the eye position change amount ΔPy in the vertical direction shown in FIG. , it may be determined that the predetermined condition is satisfied.
(ステップS133)
また、いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の距離判定モジュール511を実行することで、例えば、物体距離D4と結像距離D10とを比較可能であり、物体距離D4が結像距離D10より大きい場合、所定の条件を充足すると判定してもよい。
(Step S133)
Further, in step S130 in some embodiments, the display control device 30 (processor 33) can execute the
(ステップS134)
また、いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の距離判定モジュール511を実行することで、例えば、物体距離D4と予めメモリ37に記憶された所定の第2の距離閾値(例えば20m)とを比較可能であり、所定の条件を充足すると判定してもよい。ここで、第2の距離閾値は、結像距離D10の約5倍に設定されている。
(Step S134)
Further, in step S130 in some embodiments, the display control device 30 (processor 33) executes the
図11Cは、ステップS140における車両状態判定モジュール510の動作を説明する図である。
FIG. 11C is a diagram illustrating the operation of vehicle
(ステップS140)
いくつかの実施形態におけるステップS120において、表示制御装置30(プロセッサ33)は、図10の車両状態判定モジュール510を実行することで、車両の状態が所定の条件を充足するか判定してもよい。
(Step S140)
In step S120 in some embodiments, the display control device 30 (processor 33) may determine whether the vehicle state satisfies a predetermined condition by executing the vehicle
(ステップS141)
いくつかの実施形態におけるステップS140において、表示制御装置30(プロセッサ33)は、図10の車両状態判定モジュール510を実行することで、例えば、車両ECU401から取得する走行距離、車速、シフトポジションなどの情報、自車位置検出部405から取得する自車位置を示す情報、IMU415から取得する情報などに基づき、自車両1が走行しているか否かを推定し、自車両1が走行していると推定した場合、前記所定の条件を充足すると判定してもよい。
(Step S141)
In step S140 in some embodiments, the display control device 30 (processor 33) executes the vehicle
(ステップS150)
再び図11Aを参照する。ステップS120で前記所定の条件が充足するか判定された後、表示制御装置30(プロセッサ33)は、目追従性画像処理モジュール512を実行することで、観察者の目位置700(目位置700は、具体的には、図12の上下方向の目位置Py、左右方向の目位置Pxであり、前後方向の目位置が加わってもよい。)に基づき、表示器40に表示させる画像の位置補正をする(目追従性画像処理)。
(Step S150)
Refer again to FIG. 11A. After it is determined in step S120 whether the predetermined condition is satisfied, the display control device 30 (processor 33) executes the eye-following
図10の目追従性画像処理モジュール512は、ステップS120における判定結果に基づいて、第1の画像補正処理S160(ステップS160)と、第2の画像補正処理S170(ステップS170)と、第3の画像補正処理S180(ステップS180)と、の間で切り替える。 10 performs first image correction processing S160 (step S160), second image correction processing S170 (step S170), and third image correction processing S170 (step S170) based on the determination result in step S120. Switching between image correction processing S180 (step S180).
(第1の画像補正処理S160)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS131)された場合、左右方向の目位置の変化量ΔPxに応じた第1の左右補正量(第1の補正量)Cxだけ虚像Vの左右方向の位置を補正する。第1の左右補正量Cx(後述する第2の左右補正量Cxq1、第3の左右補正量Cxq2も同様。)は、左右方向の目位置の変化量ΔPxが大きくなるに従い、徐々に大きくなるパラメータである。また、第1の左右補正量Cx(後述する第2の左右補正量Cxq1、第3の左右補正量Cxq2も同様。)は、虚像Vに設定される知覚距離D30が長くなるに従い、徐々に大きくなるパラメータである。第1の画像補正処理S160は、各左右方向の目位置Pxから見ても虚像Vが設定されたターゲット位置PTにあたかも固定されているような自然な運動視差を完全に再現するような画像の位置補正を含み、広義には、自然な運動視差に近づけるような画像位置の補正も含んでいてもよい。すなわち、第1の画像補正処理S160は、虚像Vに設定されたターゲット位置PTと観察者の目位置700とを結ぶ直線と、虚像表示領域VSと、の交点の位置に虚像Vの表示位置を合わせる(虚像Vの表示位置を近づける)。
(First image correction process S160)
When it is determined in step S120 that the predetermined condition is satisfied (step S131), the eye-following
(第1の画像補正処理S160)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS132)された場合、上下方向の目位置の変化量ΔPyに応じた第1の上下補正量(第1の補正量)Cyだけ虚像Vの上下方向の位置を補正する。第1の上下補正量Cy(後述する第2の上下補正量Cyr1、第3の上下補正量Cyr2も同様。)は、上下方向の目位置の変化量ΔPyが大きくなるに従い、徐々に大きくなるパラメータである。また、第1の上下補正量Cy(後述する第2の上下補正量Cyr1、第3の上下補正量Cyr2も同様。)は、虚像Vに設定される知覚距離D30が長くなるに従い、徐々に大きくなるパラメータである。第1の画像補正処理S160は、各上下方向の目位置Pyから見ても虚像Vが設定されたターゲット位置PTにあたかも固定されているような自然な運動視差を完全に再現するような画像の位置補正を含み、広義には、自然な運動視差に近づけるような画像位置の補正も含んでいてもよい。すなわち、第1の画像補正処理S160は、虚像Vに設定されたターゲット位置PTと観察者の目位置700とを結ぶ直線と、虚像表示領域VSと、の交点の位置に虚像Vの表示位置を合わせる(虚像Vの表示位置を近づける)。
(First image correction process S160)
When it is determined in step S120 that the predetermined condition is satisfied (step S132), the eye-following
(第2の画像補正処理S170)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS133)された場合、左右方向の目位置の変化量ΔPxに応じた第2の左右補正量(第2の補正量)Cxq1だけ虚像Vの左右方向の位置を補正する。図13(a)に示すように、第2の左右補正量Cxq1は、第1の画像補正処理S160における左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxに1以下となる0.9の第1の左右係数(第1の所定係数)Q1を掛けた値である。具体的に例えば、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxを100%とした場合、同じ上下方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1は90%である。なお、広義には、第2の左右補正量Cxq1は、第1の左右補正量Cxより小さくして第1の左右補正量Cxを抑制できればよいので、第1の左右補正量Cxに対して100%未満であればよいが、好ましくは、第1の左右補正量Cxに対して90%未満であることが好ましい。
(Second image correction processing S170)
When it is determined in step S120 that the predetermined condition is satisfied (step S133), the eye-following
(第2の画像補正処理S170)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS133)された場合、上下方向の目位置の変化量ΔPyに応じた第2の上下補正量(第2の補正量)Cyr1だけ虚像Vの上下方向の位置を補正する。図13(b)に示すように、第2の上下補正量Cyr1は、第1の画像補正処理S160における上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyに1以下となる0.8の第1の上下係数(第1の所定係数)R1を掛けた値である。具体的に例えば、上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyを100%とした場合、同じ上下方向の目位置の変化量ΔPyに対する第2の上下補正量Cyr1は80%である。なお、広義には、第2の上下補正量Cyr1は、第1の上下補正量Cyより小さくして第1の左右補正量Cxを抑制できればよいので、第1の上下補正量Cyに対して100%未満であればよいが、好ましくは、第1の上下補正量Cyに対して80%未満であることが好ましい。
(Second image correction processing S170)
When it is determined in step S120 that the predetermined condition is satisfied (step S133), the eye-following
(ステップS170の一例)
第1の左右係数Q1は、第1の上下係数R1よりも大きくなることが好ましい。
(Example of step S170)
The first left-right coefficient Q1 is preferably greater than the first up-down coefficient R1.
(ステップS170の一例)
いくつかの実施形態におけるステップS170において、表示制御装置30(プロセッサ33)は、図13(a)に示すように、第2の画像補正処理に移行してから、左右方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1は、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxから遠ざかるに連れて、経時的に徐々に小さくしてもよい(Cxq11参照)。例えば、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxを100%、第2の左右補正量Cxq1を90%であったとすると、表示制御装置30(プロセッサ33)は、第2の左右補正量Cxq1を、経時的に、100%→98%→96%・・・→92%のように徐々に第1の左右補正量Cxから遠ざかるに連れて減少させていってもよい。また、上下方向の目位置の変化量ΔPyに対する第2の上下補正量Cyr1も同様に、上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyから遠ざかるに連れて、経時的に徐々に小さくしてもよい。
(Example of step S170)
In step S170 in some embodiments, the display control device 30 (processor 33) shifts to the second image correction process, as shown in FIG. The second left/right correction amount Cxq1 for ΔPx may be gradually decreased over time as the distance from the first left/right correction amount Cx for the eye position change amount ΔPx in the left/right direction increases (see Cxq11). For example, assuming that the first lateral correction amount Cx and the second lateral correction amount Cxq1 with respect to the amount of change ΔPx in the eye position in the lateral direction are 100% and 90%, respectively, the display control device 30 (processor 33) The left/right correction amount Cxq1 may be gradually decreased from the first left/right correction amount Cx over time, such as 100%→98%→96% . . . →92%. Likewise, the second vertical correction amount Cyr1 for the eye position change amount ΔPy in the vertical direction gradually increases over time as it becomes more distant from the first vertical correction amount Cy for the eye position change amount ΔPy in the vertical direction. can be reduced to
この経時変化する補正量Cxq11は、物体距離が遠くなるに連れて経時的に徐々に小さくなり、反対に、物体距離が近くなるに連れて経時的に徐々に大きくなるが、その変化率は、物体距離が遠くなる場合と物体距離が近くなる場合で異なっていてもよい。 This time-varying correction amount Cxq11 gradually decreases over time as the object distance increases, and conversely increases over time as the object distance decreases. It may be different when the object distance becomes longer and when the object distance becomes closer.
(第3の画像補正処理S180)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS134)された場合、左右方向の目位置の変化量ΔPxに応じた第3の左右補正量(第3の補正量)Cxq2だけ虚像Vの左右方向の位置を補正する。図13(a)に示すように、第3の左右補正量Cxq2は、第1の画像補正処理S160における左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxに第1の左右係数Q1よりも小さい0.5の第2の左右係数(第2の所定係数)Q2を掛けた値である。具体的に例えば、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxを100%とした場合、同じ上下方向の目位置の変化量ΔPxに対する第3の左右補正量Cxq2は50%である。なお、広義には、第3の左右補正量Cxq2は、第1の左右補正量Cxより小さくして第1の左右補正量Cxを抑制できればよいので、第1の左右補正量Cxに対して100%未満であればよいが、好ましくは、第1の左右補正量Cxに対して50%未満であることが好ましい。
(Third image correction processing S180)
When it is determined in step S120 that the predetermined condition is satisfied (step S134), the eye-following
(第3の画像補正処理S180)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS134)された場合、上下方向の目位置の変化量ΔPyに応じた第3の上下補正量(第3の補正量)Cyr2だけ虚像Vの上下方向の位置を補正する。図13(b)に示すように、第3の上下補正量Cyr2は、第1の画像補正処理S160における上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyに0.4の第1の上下係数R1よりも小さい第2の上下係数(第2の所定係数)R2を掛けた値である。具体的に例えば、上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyを100%とした場合、同じ上下方向の目位置の変化量ΔPyに対する第3の上下補正量Cyr2は40%である。なお、広義には、第3の上下補正量Cyr2は、第1の上下補正量Cyより小さくして第1の左右補正量Cxを抑制できればよいので、第1の上下補正量Cyに対して100%未満であればよいが、好ましくは、第1の上下補正量Cyに対して40%未満であることが好ましい。
(Third image correction processing S180)
When it is determined in step S120 that the predetermined condition is satisfied (step S134), the eye-following
(ステップS180の一例)
いくつかの実施形態におけるステップS180において、表示制御装置30(プロセッサ33)は、図13(a)に示すように、第3の画像補正処理に移行してから、左右方向の目位置の変化量ΔPxに対する第3の左右補正量Cxq2が、左右方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1から遠ざかるように、経時的に徐々に小さくしてもよい(Cxq21参照)。例えば、左右方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1が90%、第3の左右補正量Cxq2が50%であったとすると、表示制御装置30(プロセッサ33)は、第3の左右補正量Cxq2を、経時的に、90%→80%→70%→・・・→50%のように徐々に第2の左右補正量Cxq1から遠ざかるように減少させていってもよい。また、上下方向の目位置の変化量ΔPyに対する第3の上下補正量Cyr2も同様に、上下方向の目位置の変化量ΔPyに対する第2の上下補正量Cyr1から遠ざかるように、経時的に徐々に小さくしてもよい。
(Example of step S180)
In step S180 in some embodiments, the display control device 30 (processor 33), as shown in FIG. The third left/right correction amount Cxq2 for ΔPx may gradually decrease over time so as to separate from the second left/right correction amount Cxq1 for the eye position change amount ΔPx in the left/right direction (see Cxq21). For example, assuming that the second lateral correction amount Cxq1 is 90% and the third lateral correction amount Cxq2 is 50% with respect to the eye position change amount ΔPx in the lateral direction, the display control device 30 (processor 33) The left/right correction amount Cxq2 may be gradually decreased over time from the second left/right correction amount Cxq1 in the manner of 90%→80%→70%→ . . . →50%. Likewise, the third vertical correction amount Cyr2 for the eye position change amount ΔPy in the vertical direction is also gradually separated from the second vertical correction amount Cyr1 for the eye position change amount ΔPy in the vertical direction. You can make it smaller.
この経時変化する補正量Cxq21は、物体距離が遠くなるに連れて経時的に徐々に小さくなり、反対に、物体距離が近くなるに連れて経時的に徐々に大きくなるが、その変化率は、物体距離が遠くなる場合と物体距離が近くなる場合で異なっていてもよい。 This time-varying correction amount Cxq21 gradually decreases over time as the object distance increases, and conversely increases over time as the object distance decreases. It may be different when the object distance becomes longer and when the object distance becomes closer.
(ステップS190)
いくつかの実施形態におけるステップS160において、表示制御装置30(プロセッサ33)は、所定の解除条件を充足したと判定した場合、第2の画像補正処理S170から第1の画像補正処理S160へ移行する。
(Step S190)
In step S160 in some embodiments, when the display control device 30 (processor 33) determines that the predetermined cancellation condition is satisfied, the process shifts from the second image correction processing S170 to the first image correction processing S160. .
前記所定の解除条件は、前記第2の画像補正処理S170に移行してから所定時間(例えば、20秒)が経過したことを含む。目追従性画像処理モジュール512は、前記第2の画像補正処理S170に移行してから計時を実行し、予めメモリ37に記憶された(又は操作検出部407で設定された)前記所定時間が経過した場合、前記解除条件を充足したと判定してもよい。
The predetermined cancellation condition includes that a predetermined period of time (for example, 20 seconds) has passed since the second image correction process S170 was started. The eye-tracking
(ステップS190)
いくつかの実施形態におけるステップS160において、表示制御装置30(プロセッサ33)は、所定の解除条件を充足したと判定した場合、第3の画像補正処理S180から第2の画像補正処理S170へ移行する。
(Step S190)
In step S160 in some embodiments, when the display control device 30 (processor 33) determines that the predetermined cancellation condition is satisfied, the process moves from the third image correction process S180 to the second image correction process S170. .
前記所定の解除条件は、第3の画像補正処理S180に移行してから所定時間(例えば、20秒)が経過したことを含む。目追従性画像処理モジュール512は、前記第3の画像補正処理S180に移行してから計時を実行し、予めメモリ37に記憶された(又は操作検出部407で設定された)前記所定時間が経過した場合、前記解除条件を充足したと判定してもよい。
The predetermined cancellation condition includes that a predetermined period of time (for example, 20 seconds) has passed since the third image correction process S180 was started. The eye-following
また、前記所定の解除条件は、ステップS120で前記所定の条件を充足しなくなったこと、を含んでいてもよい。すなわち、前記所定の解除条件は、ステップS131乃至S134、及びステップS141のうち少なくとも1つが前記所定の条件を充足した状態から前記所定の条件を充足しなくなった状態へ移行したことを検出すること、を含んでいてもよい。また、前記所定の解除条件は、ステップS120で前記所定の条件を充足しなくなってから所定時間(例えば、20秒)が経過したことを含んでいてもよい。 Further, the predetermined cancellation condition may include that the predetermined condition is no longer satisfied in step S120. That is, the predetermined cancellation condition is detecting that at least one of steps S131 to S134 and step S141 has changed from a state in which the predetermined condition is satisfied to a state in which the predetermined condition is no longer satisfied; may contain Further, the predetermined cancellation condition may include that a predetermined time (for example, 20 seconds) has passed after the predetermined condition is no longer satisfied in step S120.
再び、図10を参照する。図10のグラフィックモジュール514は、レンダリングなどの画像処理をして画像データを生成し、表示器40を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール514は、表示される画像の、種類(動画、静止画、形状)、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール514は、画像の種類(表示パラメータの例の1つ。)、画像の位置座標(表示パラメータの例の1つ。)、画像の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角などであり、表示パラメータの例の1つ。)、画像のサイズ(表示パラメータの例の1つ。)、画像の色(色相、彩度、明度などで設定される表示パラメータの例の1つ。)、画像の遠近表現の強度(消失点の位置などで設定される表示パラメータの1つ。)で観察者に視認されるように画像データを生成し、光変調素子50を駆動し得る。
Again, refer to FIG.
光源駆動モジュール516は、光源ユニット24を駆動することを実行するための様々な既知のソフトウェア構成要素を含む。光源駆動モジュール516は、設定された表示パラメータに基づき、光源ユニット24を駆動し得る。
Light
アクチュエータ駆動モジュール518は、第1アクチュエータ28及び/又は第2アクチュエータ29を駆動することを実行するための様々な既知のソフトウェア構成要素を含むアクチュエータ駆動モジュール518は、設定された表示パラメータに基づき、第1アクチュエータ28及び第2アクチュエータ29を駆動し得る。
以上に説明したように、本実施形態の表示制御装置30は、画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、1つ又は複数のプロセッサ(33)と、メモリ(37)と、前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する。
これにより、観察者の目位置が所定の移動量以上の移動量に動いていると検出(誤検出)された場合であっても、画像の位置補正を抑制することにより、観察者に与える違和感を軽減することができる。
As described above, the
As a result, even if it is detected (erroneous detection) that the eye position of the observer has moved by a movement amount greater than or equal to the predetermined movement amount, the correction of the position of the image is suppressed, thereby preventing the observer from feeling discomfort. can be reduced.
また、いくつかの実施形態において、前記第1の距離閾値は、前記車両から前記虚像の表示される領域までの距離(D10)であってもよい。 Further, in some embodiments, the first distance threshold may be a distance (D10) from the vehicle to the area where the virtual image is displayed.
また、いくつかの実施形態において、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に第2の所定係数(Q2,R2)を掛けた第3の補正量(Cxq2,Cyr2)で補正する第3の画像補正処理(S180)と、を有し、前記実オブジェクトまでの距離(D4)が、第2の距離閾値よりも大きい場合に、前記第3の画像補正処理(S180)を実行してもよい。 Further, in some embodiments, the position of the image displayed on the display (40) is the third correction amount obtained by multiplying the first correction amount (Cx, Cy) by a second predetermined coefficient (Q2, R2). and a third image correction process (S180) for correcting with the correction amount (Cxq2, Cyr2) of, and when the distance (D4) to the real object is larger than the second distance threshold, the 3 image correction processing (S180) may be executed.
また、いくつかの実施形態において、前記第2の距離閾値は、前記第1の距離閾値よりも大きいものであってもよい。 Also, in some embodiments, the second distance threshold may be greater than the first distance threshold.
また、いくつかの実施形態において、前記第2の所定係数(Q2,R2)は、前記第1の所定係数(Q1,R1)よりも小さいものであってもよい。 Also, in some embodiments, the second predetermined coefficient (Q2, R2) may be smaller than the first predetermined coefficient (Q1, R1).
また、いくつかの実施形態において、前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に基づいて前記表示器(40)に表示する前記画像の位置を補正する場合の前記第1の所定係数(Q1)は、前記上下方向の目位置又は頭位置(Py)の変化(ΔPy)に基づいて前記表示器(40)に表示する前記画像の位置を補正する場合の前記第1の所定係数(R1)よりも大きくなってもよい。 Further, in some embodiments, when the position of the image displayed on the display (40) is corrected based on the change (ΔPy) in the eye position or head position (Px) in the horizontal direction, the first The predetermined coefficient (Q1) of is the first coefficient (Q1) when correcting the position of the image displayed on the display (40) based on the change (ΔPy) in the eye position or head position (Py) in the vertical direction. It may be larger than the predetermined coefficient (R1).
また、いくつかの実施形態において、前記第1の所定係数(Q1)は、前記第2の画像補正処理において、前記第2の補正量(Cxq1、Cyr1)が、前記第1の画像補正処理のときの前記第1の補正量(Cx,Cy)から遠ざかるに連れて経時的に変化してもよい。 Further, in some embodiments, the first predetermined coefficient (Q1) in the second image correction process is the second correction amount (Cxq1, Cyr1) in the first image correction process. The first correction amount (Cx, Cy) may change over time as the distance from the first correction amount (Cx, Cy) increases.
また、いくつかの実施形態において、ヘッドアップディスプレイ装置20は、画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、1つ又は複数のプロセッサ(33)と、メモリ(37)と、前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する。 In some embodiments, the head-up display device 20 includes a display (40) that displays an image, and a relay optical system ( 80), and performs display control in a head-up display device (20) that allows a vehicle user to visually recognize a virtual image of the image superimposed on the foreground, wherein one or more a processor (33), a memory (37), one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33); a vehicle exterior sensor (411) that detects a real object existing around the vehicle; The eye position and/or head position (Px) in the horizontal direction of the vehicle is obtained, and the eye position or head position (Py) in the vertical direction and the change (ΔPy) in the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image displayed on the display (40) with a first correction amount (Cx, Cy) based on at least; a second correction amount (Cxq1, Cyr1) obtained by multiplying the first correction amount (Cx, Cy) by a first predetermined coefficient (Q1, R1) of 1 or less; and image correction processing (S170), wherein the first image correction processing is performed when a distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold. and executing the second image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold.
上記の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above may be implemented by executing one or more functional modules of an information processing device such as a general purpose processor or an application specific chip. These modules, combinations of these modules, and/or combinations with known hardware that can replace their functions are all within the scope of protection of the present invention.
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図10で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
The functional blocks of
1 :車両
2 :被投影部
5 :ダッシュボード
6 :路面
10 :車両用表示システム
20 :HUD装置
21 :光出射窓
22 :筐体
24 :光源ユニット
28 :第1アクチュエータ
29 :第2アクチュエータ
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
40 :表示装置
205 :中心
300 :実オブジェクト
311 :路面
313 :人物
314 :他車両
315 :建物
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :操作検出部
409 :目位置検出部
411 :車外センサ
413 :明るさ検出部
417 :携帯情報端末
419 :外部通信機器
502 :目位置検出モジュール
504 :目位置推定モジュール
506 :目位置予測モジュール
508 :目位置状態判定モジュール
510 :車両状態判定モジュール
511 :距離判定モジュール
512 :目追従性画像処理モジュール
514 :グラフィックモジュール
516 :光源駆動モジュール
518 :アクチュエータ駆動モジュール
710 :頭位置
Cx :第1の左右補正量(第1の補正量)
Cxq1 :第2の左右補正量(第2の補正量)
Cxq2 :第3の左右補正量(第3の補正量)
Cy :第1の上下補正量(第1の補正量)
Cyr1 :第2の上下補正量(第2の補正量)
Cyr2 :第3の上下補正量(第3の補正量)
Q1 :第1の左右係数(第1の所定係数)
Q2 :第2の左右係数(第2の所定係数)
R1 :第1の上下係数(第1の所定係数)
R2 :第2の上下係数(第2の所定係数)
D10 :結像距離(第1の距離閾値)
D30 :知覚距離
D4 :物体距離(実オブジェクトまでの距離)
FU :仮想オブジェクト(知覚虚像)
K :表示光
PS :虚像表示領域
PT :ターゲット位置
Px :左右方向の目位置(頭位置)
Py :上下方向の目位置(頭位置)
V :虚像
V60 :AR虚像(上側虚像)
V61 :ナビ虚像
V62 :ナビ虚像
V63 :強調虚像
V64 :強調虚像
V65 :強調虚像
V65 :POI虚像
V70 :非AR虚像(下側虚像)
VS :虚像表示領域
Vx :移動速度
Vy :移動速度
t :周期時間
ΔPx :変化量
ΔPy :変化量
Reference Signs List 1: Vehicle 2: Projected portion 5: Dashboard 6: Road surface 10: Vehicle display system 20: HUD device 21: Light exit window 22: Housing 24: Light source unit 28: First actuator 29: Second actuator 30: Display control device 31 : I/O interface 33 : Processor 35 : Image processing circuit 37 : Memory 40 : Display device 205 : Center 300 : Real object 311 : Road surface 313 : Person 314 : Other vehicle 315 : Building 401 : Vehicle ECU
403 : road information database 405 : own vehicle position detection unit 407 : operation detection unit 409 : eye position detection unit 411 : outside sensor 413 : brightness detection unit 417 : portable information terminal 419 : external communication device 502 : eye position detection module 504 : Eye position estimation module 506 : Eye position prediction module 508 : Eye position state determination module 510 : Vehicle state determination module 511 : Distance determination module 512 : Eye-following image processing module 514 : Graphic module 516 : Light source drive module 518 : Actuator drive Module 710: Head position Cx: First lateral correction amount (first correction amount)
Cxq1: Second left/right correction amount (second correction amount)
Cxq2: Third right/left correction amount (third correction amount)
Cy: first vertical correction amount (first correction amount)
Cyr1: Second vertical correction amount (second correction amount)
Cyr2: third vertical correction amount (third correction amount)
Q1: first left-right coefficient (first predetermined coefficient)
Q2: second left-right coefficient (second predetermined coefficient)
R1: first upper and lower coefficient (first predetermined coefficient)
R2: second upper and lower coefficient (second predetermined coefficient)
D10: imaging distance (first distance threshold)
D30: Perceived distance D4: Object distance (distance to real object)
FU: virtual object (perceptual virtual image)
K: display light PS: virtual image display area PT: target position Px: eye position (head position) in the horizontal direction
Py: Vertical eye position (head position)
V: virtual image V60: AR virtual image (upper virtual image)
V61: navigation virtual image V62: navigation virtual image V63: enhanced virtual image V64: enhanced virtual image V65: enhanced virtual image V65: POI virtual image V70: non-AR virtual image (lower virtual image)
VS: virtual image display area Vx: moving speed Vy: moving speed t: cycle time ΔPx: amount of change ΔPy: amount of change
Claims (8)
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、
前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、
前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、
前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する、
表示制御装置(30)。 It comprises at least a display (40) for displaying an image, and a relay optical system (80) for projecting the light of the image displayed by the display (40) onto a projection target member, and presents a virtual image of the image to the user of the vehicle. A display control device (30) that executes display control in a head-up display device (20) that is superimposed on the foreground and visually recognized,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
a vehicle exterior sensor (411) that detects a real object existing around the vehicle;
The processor (33) acquires the user's eye position and/or head position (Py) in the vertical direction of the vehicle and the eye position and/or head position (Px) in the horizontal direction of the vehicle. displayed on the display (40) with a first correction amount (Cx, Cy) based at least on the eye position or head position (Py) and the change (ΔPy) in the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image to be
A second correction amount (Cxq1 , Cyr1) and a second image correction process (S170),
performing the first image correction process when a distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold;
executing the second image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold;
A display controller (30).
ことを特徴とする請求項1に記載の表示制御装置(30)。 The first distance threshold is the distance (D10) from the vehicle to the area where the virtual image is displayed,
A display control device (30) according to claim 1, characterized in that:
前記実オブジェクトまでの距離(D4)が、第2の距離閾値よりも大きい場合に、前記第3の画像補正処理(S180)を実行する、
ことを特徴とする請求項1に記載の表示制御装置(30)。 The position of the image displayed on the display (40) is determined by a third correction amount (Cxq2, Cyr2) obtained by multiplying the first correction amount (Cx, Cy) by a second predetermined coefficient (Q2, R2). and a third image correction process (S180) to correct,
executing the third image correction process (S180) when the distance (D4) to the real object is greater than a second distance threshold;
A display control device (30) according to claim 1, characterized in that:
ことを特徴とする請求項3に記載の表示制御装置(30)。 the second distance threshold is greater than the first distance threshold;
A display control device (30) according to claim 3, characterized in that:
ことを特徴とする請求項3に記載の表示制御装置(30)。 the second predetermined coefficient (Q2, R2) is smaller than the first predetermined coefficient (Q1, R1);
A display control device (30) according to claim 3, characterized in that:
ことを特徴とする請求項1に記載の表示制御装置(30)。 The first predetermined coefficient (Q1) when correcting the position of the image displayed on the display (40) based on the change (ΔPy) in the eye position or the head position (Px) in the horizontal direction is larger than the first predetermined coefficient (R1) when correcting the position of the image displayed on the display (40) based on a change (ΔPy) in eye position or head position (Py) in the vertical direction ,
A display control device (30) according to claim 1, characterized in that:
前記第2の補正量(Cxq1、Cyr1)が、前記第1の画像補正処理のときの前記第1の補正量(Cx,Cy)から遠ざかるに連れて経時的に変化する、
ことを特徴とする請求項1に記載の表示制御装置(30)。 In the second image correction process, the first predetermined coefficient (Q1) is
The second correction amount (Cxq1, Cyr1) changes over time as it moves away from the first correction amount (Cx, Cy) in the first image correction process.
A display control device (30) according to claim 1, characterized in that:
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、
前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、
前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、
前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する、
ヘッドアップディスプレイ装置(20)。 It comprises at least a display (40) for displaying an image, and a relay optical system (80) for projecting the light of the image displayed by the display (40) onto a projection target member, and presents a virtual image of the image to the user of the vehicle. A display control device (30) that executes display control in a head-up display device (20) that is superimposed on the foreground and visually recognized,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
a vehicle exterior sensor (411) that detects a real object existing around the vehicle;
The processor (33) acquires the user's eye position and/or head position (Py) in the vertical direction of the vehicle and the eye position and/or head position (Px) in the horizontal direction of the vehicle. displayed on the display (40) with a first correction amount (Cx, Cy) based at least on the eye position or head position (Py) and the change (ΔPy) in the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image to be
A second correction amount (Cxq1 , Cyr1) and a second image correction process (S170),
performing the first image correction process when a distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold;
executing the second image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold;
A head-up display device (20).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021099106A JP2022190724A (en) | 2021-06-15 | 2021-06-15 | Display control device, head-up display device and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021099106A JP2022190724A (en) | 2021-06-15 | 2021-06-15 | Display control device, head-up display device and display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022190724A true JP2022190724A (en) | 2022-12-27 |
Family
ID=84613022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021099106A Pending JP2022190724A (en) | 2021-06-15 | 2021-06-15 | Display control device, head-up display device and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022190724A (en) |
-
2021
- 2021-06-15 JP JP2021099106A patent/JP2022190724A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020110580A1 (en) | Head-up display, vehicle display system, and vehicle display method | |
JP2015101311A (en) | Vehicle information projection system | |
US11584298B2 (en) | Vehicle display system and vehicle | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
JP7255608B2 (en) | DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM | |
JP7459883B2 (en) | Display control device, head-up display device, and method | |
WO2022230995A1 (en) | Display control device, head-up display device, and display control method | |
JP2023077857A (en) | Head up display device | |
WO2021015171A1 (en) | Head-up display | |
WO2023048213A1 (en) | Display control device, head-up display device, and display control method | |
WO2021200914A1 (en) | Display control device, head-up display device, and method | |
WO2020158601A1 (en) | Display control device, method, and computer program | |
WO2023003045A1 (en) | Display control device, head-up display device, and display control method | |
JP2022190724A (en) | Display control device, head-up display device and display control method | |
JP2022072954A (en) | Display control device, head-up display device, and display control method | |
JP2020121607A (en) | Display control device, method and computer program | |
JP2021056358A (en) | Head-up display device | |
JP2022113292A (en) | Display control device, head-up display device, and display control method | |
JP2020117105A (en) | Display control device, method and computer program | |
JP2020121704A (en) | Display control device, head-up display device, method and computer program | |
JP2022077138A (en) | Display controller, head-up display device, and display control method | |
JP2022057051A (en) | Display controller and virtual display device | |
WO2021200913A1 (en) | Display control device, image display device, and method | |
JP7434894B2 (en) | Vehicle display device | |
JP2023093913A (en) | Display control device, head-up display device, and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240415 |