JP2021103274A - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP2021103274A
JP2021103274A JP2019235287A JP2019235287A JP2021103274A JP 2021103274 A JP2021103274 A JP 2021103274A JP 2019235287 A JP2019235287 A JP 2019235287A JP 2019235287 A JP2019235287 A JP 2019235287A JP 2021103274 A JP2021103274 A JP 2021103274A
Authority
JP
Japan
Prior art keywords
viewpoint
control
warping
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019235287A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
誠 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2019235287A priority Critical patent/JP2021103274A/en
Publication of JP2021103274A publication Critical patent/JP2021103274A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To deter appearance of an image from changing instantly following update of a warping parameter and to deter a driver from having a feeling of incongruity when executing viewpoint position following warping control for updating a warping parameter according to a driver's viewpoint position.SOLUTION: A control part 180 for executing viewpoint position following warping control executes at least one of first control for maintaining a warping parameter before movement without updating it even if a viewpoint is moved when at least one of a driver's left and right viewpoints is positioned in a predetermined area, second control for reducing reflection of a warping parameter to an image displayed in a display part 116 relative to input of a viewpoint position, and third control for updating a warping parameter intermittently relative to movement of a driver's viewpoint.SELECTED DRAWING: Figure 4

Description

本発明は、車両のウインドシールドやコンバイナ等の被投影部材に画像の表示光を投影(投射)し、運転者の前方等に虚像を表示するヘッドアップディスプレイ(Head−up Display:HUD)装置等に関する。 The present invention is a head-up display (HUD) device or the like that projects (projects) the display light of an image onto a projected member such as a windshield or a combiner of a vehicle and displays a virtual image in front of the driver or the like. Regarding.

HUD装置において、投影される画像を、光学系やウインドシールド等の曲面形状等に起因して生じる虚像の歪みとは逆の特性をもつように予め歪ませる画像補正処理(以下、ワーピング処理と称する)が知られている。HUD装置におけるワーピング処理については、例えば特許文献1に記載されている。 In the HUD device, an image correction process (hereinafter referred to as warping process) in which the projected image is pre-distorted so as to have characteristics opposite to the distortion of the virtual image caused by the curved surface shape of the optical system, the windshield, etc. )It has been known. The warping process in the HUD apparatus is described in, for example, Patent Document 1.

特開2015−87619号公報Japanese Unexamined Patent Publication No. 2015-87619

本発明者は、運転者(操縦者や乗務員等、広く解釈可能である)の視点位置に応じてワーピングパラメータを更新する視点位置追従ワーピング制御を実施することについて検討し、以下に記載する新たな課題を認識した。 The present inventor has examined the implementation of viewpoint position-following warping control that updates the warping parameters according to the viewpoint position of the driver (which can be widely interpreted by the driver, crew, etc.), and describes the new method described below. Recognized the challenge.

視点位置が移動してワーピングパラメータを更新すると、同じ画像の虚像を表示している場合でも、運転者から見た虚像の見た目(虚像の様子や虚像から受ける印象等)が瞬時的に変化し、運転者に違和感を生じさせる場合がある。 When the viewpoint position moves and the warping parameter is updated, the appearance of the virtual image seen by the driver (the state of the virtual image, the impression received from the virtual image, etc.) changes instantaneously even if the virtual image of the same image is displayed. It may cause a sense of discomfort to the driver.

ワーピング処理後に表示される画像(虚像)は、光学系等により生じる歪みが完全に補正されて平面的な虚像となるのが理想的であり、視点位置追従ワーピングにおいては、運転者(ユーザー)の視点の位置が変化したときでも、常に、歪みのない虚像が得られるのが理想ではあるが、完全に歪みを除去できるわけではない。 Ideally, the image (virtual image) displayed after the warping process should be a flat virtual image after the distortion caused by the optical system or the like is completely corrected. In the viewpoint position tracking warping, the driver (user) Ideally, a distortion-free virtual image should always be obtained, even when the position of the viewpoint changes, but the distortion cannot be completely removed.

特に、近年、例えば、車両の前方のかなり広い範囲にわたって虚像表示が可能なHUD装置が開発されており、このようなHUD装置は大型化する傾向がある。光学系等の設計を工夫して歪みを少なくする工夫がなされてはいるが、例えば、アイボックスの全領域において、一律の歪み低減効果を実現するのはむずかしく、例えば、運転者の視点がアイボックスの中央領域にあるときは歪みの程度をかなり抑制できても、視点がアイボックスの周辺にあるときは、残留する歪みの程度はある程度、大きくなるのは否めない。 In particular, in recent years, for example, a HUD device capable of displaying a virtual image over a considerably wide range in front of a vehicle has been developed, and such a HUD device tends to be large in size. Although the optical system and other designs have been devised to reduce distortion, for example, it is difficult to achieve a uniform distortion reduction effect in the entire area of the eyebox. For example, the driver's point of view is the eye. It is undeniable that the degree of distortion can be suppressed considerably when it is in the central region of the box, but the degree of residual distortion increases to some extent when the viewpoint is around the eyebox.

例えば、運転者の視点が、ワーピング処理による虚像の見た目の変化の影響を受け易いアイボックスの周辺領域に位置している状態で視点移動が生じると、表示内容は同じであっても、画像(虚像)の見た目がかなり変化し、また、その変化が視点移動に対応して瞬時的に生じ、運転者が違和感を覚えることが有り得る。 For example, if the viewpoint is moved while the driver's viewpoint is located in the peripheral area of the eyebox, which is easily affected by the change in the appearance of the virtual image due to the warping process, the image (even if the displayed contents are the same) The appearance of the virtual image) changes considerably, and the change occurs instantaneously in response to the movement of the viewpoint, which may cause the driver to feel uncomfortable.

本発明の目的の1つは、HUD装置において、視点位置追従ワーピング処理を実施するときに、ワーピングパラメータの更新に伴って画像の見た目が瞬時的に変化して運転者に違和感を生じさせることを抑制することである。 One of the objects of the present invention is that when the viewpoint position tracking warping process is performed in the HUD device, the appearance of the image changes instantaneously with the update of the warping parameters, causing the driver to feel uncomfortable. It is to suppress.

本発明の他の目的は、以下に例示する態様及び最良の実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。 Other objects of the invention will become apparent to those skilled in the art by reference to the embodiments and best embodiments illustrated below, as well as the accompanying drawings.

以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。 Hereinafter, in order to easily understand the outline of the present invention, embodiments according to the present invention will be illustrated.

第1の態様において、ヘッドアップディスプレイ装置は、
車両に搭載され、画像を、前記車両に備わる被投影部材に投影することで、運転者に前記画像の虚像を視認させるヘッドアップディスプレイ(HUD)装置であって、
前記画像を生成する画像生成部と、
前記画像を表示する表示部と、
前記画像の表示光を反射して、前記被投影部材に投影する光学部材を含む光学系と、
アイボックスにおける運転者の視点位置に応じてワーピングパラメータを更新し、そのワーピングパラメータを用いて前記表示部に表示する画像を、前記画像の虚像の歪み特性とは逆の特性をもつように予め歪ませる視点位置追従ワーピング制御を実施する制御部と、
を有し、
前記制御部は、
前記運転者の左右の視点の少なくとも一方が所定領域に位置するときは、前記視点が移動しても移動前のワーピングパラメータを更新せずに維持する第1の制御、
及び、
視点位置入力に対する、前記表示部において表示される画像へのワーピングパラメータの反映を鈍らせる第2の制御、
及び、
前記運転者の視点の移動に対して断続的に前記ワーピングパラメータを更新する第3の制御、
の少なくとも1つを実施する。
In the first aspect, the head-up display device is
A head-up display (HUD) device that is mounted on a vehicle and projects an image onto a projected member provided on the vehicle so that the driver can visually recognize a virtual image of the image.
An image generator that generates the image and
A display unit that displays the image and
An optical system including an optical member that reflects the display light of the image and projects it onto the projected member.
The warping parameter is updated according to the viewpoint position of the driver in the eye box, and the image displayed on the display unit using the warping parameter is pre-distorted so as to have a characteristic opposite to the distortion characteristic of the virtual image of the image. A control unit that performs warping control following the viewpoint position
Have,
The control unit
When at least one of the driver's left and right viewpoints is located in a predetermined area, the first control that maintains the warping parameter before the movement without updating even if the viewpoint moves.
as well as,
A second control that slows down the reflection of the warping parameter on the image displayed on the display unit with respect to the viewpoint position input.
as well as,
A third control that intermittently updates the warping parameter with respect to the movement of the driver's viewpoint.
At least one of the above is carried out.

第1の態様では、視点位置追従ワーピング処理に伴う、画像(虚像)の見え方が変化して違和感を生じさせるという弊害を抑制するために、例えば条件を設定して、その条件を満足する場合にワーピング処理の感度を鈍化させる、というような対策を実施する。 In the first aspect, in order to suppress the adverse effect that the appearance of the image (virtual image) changes and causes a sense of discomfort due to the viewpoint position tracking warping process, for example, a condition is set and the condition is satisfied. Take measures such as slowing down the sensitivity of the warping process.

第1の制御では、視点がアイボックスの所定領域に位置するときは、視点が移動してもワーピング処理を実施しないこととして、ワーピング処理の感度を低下させる。 In the first control, when the viewpoint is located in a predetermined area of the eye box, the warping process is not performed even if the viewpoint moves, and the sensitivity of the warping process is lowered.

また、第2の制御では、視点の移動に追従して、ただちに更新されたワーピングパラメータによる画像補正を行うのではなく、画像(虚像)表示に対するワーピングパラメータの反映を鈍らせる(遅らせる)ことで、ワーピング処理の感度を低下させる。 Further, in the second control, the reflection of the warping parameter on the image (virtual image) display is blunted (delayed) instead of performing the image correction by the immediately updated warping parameter following the movement of the viewpoint. Decrease the sensitivity of the warping process.

また、第3の制御では、断続的(言い換えれば、連続ではない)ワーピング処理を実施する。例えばアイボックスのある区域では、視点が所定方向に所定距離の移動を繰り返せば、その1回の移動毎にワーピングパラメータが更新される(ワーピングパラメータの連続的更新)が、アイボックスの他の区域では、上記の所定方向かつ所定距離の視点移動があってもワーピングパラメータの更新を生じさせないようにして、1回の移動毎にワーピングパラメータが更新されるという規則を破って不連続化する(ワーピングパラメータの更新を断続的に行う)といった制御を実施して、ワーピング処理の感度を低下させる。 Further, in the third control, intermittent (in other words, non-continuous) warping processing is performed. For example, in an area with an eyebox, if the viewpoint repeatedly moves a predetermined distance in a predetermined direction, the warping parameter is updated for each movement (continuous update of the warping parameter), but other areas of the eyebox. Then, the warping parameter is not updated even if the viewpoint moves in the predetermined direction and at a predetermined distance, and the rule that the warping parameter is updated for each movement is violated and discontinuous (warping). Controls such as (parameters are updated intermittently) are performed to reduce the sensitivity of the warping process.

上記の第1乃至第3の制御は、適宜、組み合わせて使用することができ、これによって、ワーピング処理の感度の低下の程度や、低下の態様を適宜、調整することができる。 The above-mentioned first to third controls can be used in combination as appropriate, whereby the degree of decrease in sensitivity of the warping process and the mode of decrease can be appropriately adjusted.

第1の態様に従属する第2の態様において、
前記制御部は、前記第1の制御を行うに際し、
前記アイボックスの内部を中央領域と周辺領域に区別し、前記視点が前記周辺領域に位置しているときに前記視点の移動があっても、前記ワーピングパラメータを更新せずに維持してもよい。
In the second aspect, which is subordinate to the first aspect,
The control unit receives the first control when performing the first control.
The inside of the eye box may be divided into a central region and a peripheral region, and even if the viewpoint moves when the viewpoint is located in the peripheral region, the warping parameter may be maintained without being updated. ..

第2の態様では、運転者の視点位置がアイボックスの周辺領域にあるときに、第1の制御を実施する。先に述べたとおり、アイボックスの全領域において、一律の歪み低減効果を実現するのはむずかしく、例えば、運転者の視点がアイボックスの中央領域にあるときは歪みの程度をかなり抑制できても、視点がアイボックスの周辺にあるときは、残留する歪みの程度はある程度、大きくなるのは否めない。例えば、運転者の視点が、ワーピング処理による虚像の見た目の変化の影響を受け易いアイボックスの周辺領域に位置している状態で視点移動が生じると、表示内容は同じであっても、画像(虚像)の見た目がかなり変化し、また、その変化が視点移動に対応して瞬時的に生じ、運転者が違和感を覚えることが生じ易い。 In the second aspect, the first control is performed when the driver's viewpoint position is in the peripheral region of the eyebox. As mentioned earlier, it is difficult to achieve a uniform distortion reduction effect in all areas of the eyebox, for example, even if the degree of distortion can be significantly suppressed when the driver's viewpoint is in the central area of the eyebox. When the viewpoint is around the eye box, it is undeniable that the degree of residual distortion increases to some extent. For example, if the viewpoint is moved while the driver's viewpoint is located in the peripheral area of the eyebox, which is easily affected by the change in the appearance of the virtual image due to the warping process, the image (even if the displayed contents are the same) The appearance of the virtual image) changes considerably, and the change occurs instantaneously in response to the movement of the viewpoint, and the driver tends to feel uncomfortable.

そこで、第2の態様では、運転者の視点位置がアイボックスの周辺領域にあるときには、視点移動が生じても、その視点移動は無視してワーピングパラメータの更新を行わないようにして、画像(虚像)の見え方がかなり大きく変化することによる違和感等の弊害を抑制する。 Therefore, in the second aspect, when the driver's viewpoint position is in the peripheral region of the eyebox, even if the viewpoint movement occurs, the viewpoint movement is ignored and the warping parameter is not updated, so that the image ( It suppresses adverse effects such as discomfort caused by a considerably large change in the appearance of the virtual image).

第1の態様に従属する第3の態様において、
前記制御部は、前記第2の制御を行うに際し、
前記視点が第1の位置から第2の位置に移動したとき、前記第2の位置への移動が検出された時点から所定時間だけ、前記表示部において表示される画像へのワーピングパラメータの反映を遅延させる第1の処理を実施する、
又は、
前記第1の処理を実施し、かつ、前記所定時間が経過したときに、前記視点が前記第2の位置にとどまっているときに、前記第2の位置に対応するワーピングパラメータを前記表示される画像に反映させる第2の処理を実施し、
又は、
前記アイボックスの内部を中央領域と周辺領域に区別し、前記視点が前記周辺領域にあるときのみ、前記第1の処理又は前記第2の処理を実施してもよい。
In the third aspect, which is subordinate to the first aspect,
The control unit receives the second control when performing the second control.
When the viewpoint moves from the first position to the second position, the warping parameter is reflected on the image displayed on the display unit for a predetermined time from the time when the movement to the second position is detected. Perform the first process to delay,
Or
When the first process is performed and the predetermined time elapses and the viewpoint remains at the second position, the warping parameter corresponding to the second position is displayed. Perform the second process to reflect in the image,
Or
The inside of the eye box may be divided into a central region and a peripheral region, and the first process or the second process may be performed only when the viewpoint is in the peripheral region.

第3の態様では、上記の第2の制御(表示される画像へのワーピングパラメータの反映を鈍らせる制御)を実施する場合として、具体的には、第1〜第3の処理のいずれかを実施することができる。 In the third aspect, as a case where the above-mentioned second control (control for blunting the reflection of the warping parameter in the displayed image) is performed, specifically, any one of the first to third processes is performed. Can be carried out.

第1の処理では、視点の移動があったときに、新しいワーピングパラメータの画像への反映を所定時間だけ遅らせることで、視点に追従して瞬時的に画像(虚像)が変化することを防止して違和感を低減する。 In the first process, when the viewpoint moves, the reflection of the new warping parameter on the image is delayed by a predetermined time to prevent the image (virtual image) from changing instantaneously following the viewpoint. To reduce discomfort.

また、第2の処理では、第1の処理に加えて、所定時間経過後に視点が同じ位置に留まっているかを確認して、留まっているときにのみ新しいワーピングパラメータを画像に反映させる処理を実施する。例えば、車両の運転中に、何らかの理由で、運転者の視点がかなり広範囲にわたって瞬時的に移動するような場合も想定され得る、このようなときでも、第2の処理を行えば、視点が移動中のときは、ワーピングパラメータの更新は行われず、移動が完了して視点の位置が安定したことが検出されたときに、更新したワーピングパラメータによる画像の補正を行うことができ、したがって、画像(虚像)の見え方が次々と変化して違和感が生じることが抑制される。 In the second process, in addition to the first process, it is confirmed whether the viewpoint stays at the same position after a lapse of a predetermined time, and a new warping parameter is reflected in the image only when the viewpoint stays. To do. For example, while driving a vehicle, it can be assumed that the driver's viewpoint moves instantaneously over a fairly wide range for some reason. Even in such a case, if the second process is performed, the viewpoint moves. When it is inside, the warping parameters are not updated, and when it is detected that the movement is completed and the position of the viewpoint is stable, the image can be corrected by the updated warping parameters, and therefore the image ( It is suppressed that the appearance of the virtual image) changes one after another and a sense of discomfort occurs.

また、第3の処理では、第1、第2の処理を行うのは、アイボックスの周辺領域に視点があるときに視点移動が生じた場合に限定する。これによって、ワーピングパラメータの更新に伴う画像(虚像)の見え方の変化が大きいと考えられる、視点が周辺領域にある場合に、第3の処理を行って、瞬時的に画像(虚像)の見え方が次々に変化することを抑制することができる。 Further, in the third process, the first and second processes are performed only when the viewpoint moves when the viewpoint is in the peripheral area of the eyebox. As a result, when the viewpoint is in the peripheral region, which is considered to have a large change in the appearance of the image (virtual image) due to the update of the warping parameter, the third process is performed to instantly see the image (virtual image). It is possible to suppress the change one after another.

第1の態様に従属する第4の態様において、
前記制御部は、前記第3の制御を行うに際し、
前記視点が現在の位置から所定方向に所定距離だけ移動したときに、前記現在の位置とは異なる他の位置に移動したとみなして前記ワーピングパラメータを前記他の位置に対応するワーピングパラメータに更新するが、
前記視点が前記他の位置から前記所定方向に前記所定距離だけ移動し、前記視点が前記他の位置とは異なる別の位置に移っても、前記別の位置に対応するワーピングパラメータへの更新は実施しない、
又は、
前記アイボックスとして、中央を密に分割し、周辺を粗く分割した粗密分割方式のアイボックスを採用し、各部分領域を単位として前記視点の位置を判定して、前記視点追従ワーピング制御を実施してもよい。
In the fourth aspect, which is subordinate to the first aspect,
The control unit receives the third control when performing the third control.
When the viewpoint moves in a predetermined direction from the current position by a predetermined distance, it is considered that the viewpoint has moved to another position different from the current position, and the warping parameter is updated to the warping parameter corresponding to the other position. But,
Even if the viewpoint moves from the other position in the predetermined direction by the predetermined distance and the viewpoint moves to another position different from the other position, the update to the warping parameter corresponding to the other position is performed. Do not carry out
Or
As the eye box, an eye box of a coarse / dense division method in which the center is densely divided and the periphery is roughly divided is adopted, the position of the viewpoint is determined in units of each partial region, and the viewpoint tracking warping control is performed. You may.

第4の態様では、上記の第3の制御(表示される画像へのワーピングパラメータの反映を断続的に行う制御)を実施する場合として、具体的に、2つの方式を採用することができる。1つは、例えば、視点が、所定方向に所定距離ずつ、繰り返し移動する場合に、アイボックスの内部の分割方式には関係なく、例えば、ある区間では、1回の移動毎にワーピングパラメータを更新するが、さらに視点が移動して違う区間になったときは、移動毎のワーピングパラメータの更新は行わず、これによって、ワーピングパラメータの更新が有、無、有、というように、連続的ではない、言い換えれば断続的な更新が実施される。これによって、ワーピング補正処理の感度(視点検出の感度ということもできる)を低下させて、ワーピングパラメータの更新に伴う画像(虚像)の見え方が変化することによる違和感の発生を抑制する。 In the fourth aspect, two specific methods can be adopted as the case where the above-mentioned third control (control for intermittently reflecting the warping parameter on the displayed image) is performed. One is, for example, when the viewpoint repeatedly moves in a predetermined direction by a predetermined distance, regardless of the division method inside the eyebox, for example, in a certain section, the warping parameter is updated for each movement. However, when the viewpoint moves further and becomes a different section, the warping parameter is not updated for each movement, so that the warping parameter is updated with, without, or with, and so on, which is not continuous. In other words, intermittent updates are carried out. As a result, the sensitivity of the warping correction process (which can also be called the sensitivity of viewpoint detection) is lowered, and the occurrence of discomfort due to the change in the appearance of the image (virtual image) due to the update of the warping parameter is suppressed.

また、他の1つは、中央が密、周辺が疎の粗密の部分領域をもつアイボックスを使用し、各部分領域を単位として視点の位置を判定して、視点追従ワーピング制御を実施する。部分領域を単位として視点位置を判定する点では、アイボックスの中央、周辺とも共通するが、周辺では、1つの部分領域の面積が大きく、従って、視点が少し移動しても、隣接する次の部分領域へと視線が移る可能性が低くなっている。よって、視点移動の検出頻度が低下し、その分、ワーピングパラメータの更新の頻度も抑制されることになる。 The other one uses an eyebox having a dense and dense partial region in the center and sparse in the periphery, determines the position of the viewpoint in units of each partial region, and implements viewpoint tracking warping control. In terms of determining the viewpoint position in units of partial regions, it is common to both the center and the periphery of the eyebox, but in the periphery, the area of one partial region is large, so even if the viewpoint moves a little, the adjacent next It is less likely that the line of sight will shift to a partial area. Therefore, the frequency of detecting the movement of the viewpoint is reduced, and the frequency of updating the warping parameter is suppressed accordingly.

第1乃至第4の何れか1つの態様に従属する第5の態様において、
前記車両の速度が低速状態か否かを判断する低速状態判定部と、をさらに有し、
前記制御部は、前記車両が、停止状態を含む前記低速状態であるときに、前記第1の制御、前記第2の制御、及び前記第3の制御の少なくとも1つを実施してもよい。
In the fifth aspect, which is subordinate to any one of the first to fourth aspects,
Further, it has a low-speed state determination unit for determining whether or not the speed of the vehicle is a low-speed state.
The control unit may perform at least one of the first control, the second control, and the third control when the vehicle is in the low speed state including the stopped state.

第5の態様では、車両が低速状態であるときに、前記第1〜第3の少なくとも1つの制御を実施する。低速状態のときには、運転者は、前方等の視覚の変動に敏感で、その変動を察知し易い。したがって、このときに、上記の制御を実施することによって、ワーピングパラメータの更新の感度を低下させ、画像(虚像)の見え方の変化による違和感の発生を抑制することができる。 In the fifth aspect, at least one of the first to third controls is performed when the vehicle is in a low speed state. When the vehicle is in a low speed state, the driver is sensitive to visual fluctuations such as in front of the driver and can easily detect the fluctuations. Therefore, at this time, by performing the above control, it is possible to reduce the sensitivity of updating the warping parameter and suppress the occurrence of a sense of discomfort due to a change in the appearance of the image (virtual image).

第1乃至第4の何れか1つの態様に従属する第6の態様において、
前記アイボックスは、前記ヘッドアップディスプレイ装置が動作状態となった初期時点で複数の部分領域に分割されており、
前記制御部は、
前記アイボックスの各部分領域を単位として前記視点の位置を判定すると共に、
前記車両の速度が速くなることに対応させて、前記アイボックス全体における前記部分領域の数を増やすことで、前記視点位置の検出の分解能を向上させると共に、前記部分領域の数を増やすに際し、前記車両の速度が速くなるにつれて、前記アイボックスの中央から周辺へと密の部分領域の範囲を広げてもよい。
In the sixth aspect, which is subordinate to any one of the first to fourth aspects,
The eye box is divided into a plurality of partial regions at the initial stage when the head-up display device is in an operating state.
The control unit
The position of the viewpoint is determined using each partial region of the eye box as a unit, and the position of the viewpoint is determined.
By increasing the number of the partial regions in the entire eye box in response to the increase in the speed of the vehicle, the resolution of detecting the viewpoint position is improved, and in increasing the number of the partial regions, the said As the speed of the vehicle increases, the range of the dense subregion may be expanded from the center to the periphery of the eyebox.

第6の態様では、車両の速度が速くなることに対応させて、アイボックスの中央から周辺へと密の部分領域の範囲を広げて、部分領域の数を増やしていく制御(言い換えれば、上記のワーピングパラメータの更新の感度を抑制する範囲を減少させていく制御)を実施する。 In the sixth aspect, control is performed in which the range of dense subregions is expanded from the center of the eyebox to the periphery to increase the number of subregions in response to the increase in vehicle speed (in other words, the above). Control to reduce the range that suppresses the sensitivity of updating the warping parameter) is implemented.

車両の速度が速くなると、運転者が違和感を認識しづらくなることから、よって、上記の違和感に対する対策を施す領域を、速度が速くなるにつれて減少させる。そして、小さな視点移動に対する表示の歪みをワーピング処理で補正して、視覚性をより重視した表示処理を実施するものである。 As the speed of the vehicle increases, it becomes difficult for the driver to recognize the discomfort. Therefore, the area for taking measures against the discomfort is reduced as the speed increases. Then, the distortion of the display due to the small movement of the viewpoint is corrected by the warping process, and the display process with more emphasis on the visual sense is performed.

第6の態様に従属する第7の態様において、
前記制御部は、前記車両の速度が、第1の速度値U1(U1>0)以上で、かつ、前記第2の速度値よりも大きい第2の速度値U2以下の範囲内にあるときに、前記車両の速度が速くなることに対応した前記視点位置の検出の分解能を向上させる制御を実施し、前記車両の速度が、前記第1の速度値未満であるとき、及び前記第2の速度値より大きいときは、前記視点位置の検出の分解能を一定に保持させてもよい。
In the seventh aspect, which is subordinate to the sixth aspect,
When the speed of the vehicle is within the range of the first speed value U1 (U1> 0) or more and the second speed value U2 or less, which is larger than the second speed value, the control unit is used. When the speed of the vehicle is less than the first speed value, and when the speed of the vehicle is less than the first speed value, the control for improving the detection resolution of the viewpoint position corresponding to the increase in the speed of the vehicle is performed. When it is larger than the value, the resolution of detecting the viewpoint position may be kept constant.

第7の態様では、車両の速度が所定の範囲(車両速度Uについて、U1≦U≦U2が成立する範囲)において、車両の速度が速くなることに対応した視点位置の検出の分解能を向上させる制御を実施する。また、車両速度がU1より小さいとき、及びU2より大きいときにまで上記の制御を適用しようとするとHUD装置(の制御部)の負担が重くなることから、その範囲では制御を実施しないこととし、無理な負担を装置に負わせることがないように配慮している。 In the seventh aspect, the resolution of detecting the viewpoint position corresponding to the increase in the vehicle speed is improved in the predetermined range of the vehicle speed (the range in which U1 ≦ U ≦ U2 is satisfied for the vehicle speed U). Implement control. Further, if the above control is to be applied even when the vehicle speed is smaller than U1 and larger than U2, the burden on the HUD device (control unit) becomes heavy, so the control is not performed within that range. Care is taken not to put an unreasonable burden on the device.

第7の態様に従属する第8の態様において、
前記車両の速度が速くなることに対応した前記視点位置の検出の分解能を向上させる制御を実施するに際し、
車速が前記第1の速度値に近い範囲では、分解能の向上の程度を緩やかにし、前記第1の速度値から遠ざかるにつれて、前記分解能の向上の程度を急峻にする制御を実施する、
又は、
車速が前記第1の速度値に近い範囲では、分解能の向上の程度を緩やかにし、前記第1の速度値から遠ざかるにつれて、前記分解能の向上の程度をより急峻にする制御を実施すると共に、車速が前記第2の速度値に近づくにつれて、前記分解能の向上の程度を緩やかにする制御を実施してもよい。
In the eighth aspect, which is subordinate to the seventh aspect,
In carrying out the control for improving the resolution of the detection of the viewpoint position corresponding to the increase in the speed of the vehicle.
In the range where the vehicle speed is close to the first speed value, the degree of improvement in resolution is moderated, and as the vehicle speed moves away from the first speed value, the degree of improvement in resolution is steepened.
Or
In the range where the vehicle speed is close to the first speed value, the degree of improvement in resolution is moderated, and as the distance from the first speed value increases, the degree of improvement in resolution is controlled to be steeper, and the vehicle speed is controlled. May be controlled to slow down the degree of improvement in the resolution as the speed approaches the second speed value.

第8の態様では、車速の上昇に応じて、アイボックスにおける視点位置の検出の分解能(検出感度)を向上させる場合に、運転者が画像(虚像)の視覚的変化を感得しやすい低速状態である(言い換えれば、車速が第1の速度値U1に近い範囲にある)場合には、急なワーピングパラメータの更新が抑制されるように、検出の分解能(検出感度)の上昇の程度を緩やかにする制御を実施する制御を実施するか、又は、その制御に加えて、さらに、第2の速度値U2に近づくにつれて、検出の分解能(検出感度)の上昇の程度を緩やかにする制御を実施して、第2の速度値U2に達したときに検出の分解能(検出感度)が飽和して一定になることによって、変化が急に(唐突に)頭打ちになって違和感が生じることを抑制する。これらの制御によって、虚像の視認性をさらに改善することができる。 In the eighth aspect, when the resolution (detection sensitivity) of detecting the viewpoint position in the eyebox is improved in response to the increase in vehicle speed, the driver is likely to perceive a visual change in the image (virtual image) in a low speed state. (In other words, when the vehicle speed is in the range close to the first speed value U1), the degree of increase in the detection resolution (detection sensitivity) is gradual so as to suppress the sudden update of the warping parameter. Control is performed, or in addition to the control, control is performed to moderate the degree of increase in the detection resolution (detection sensitivity) as the second speed value U2 is approached. Then, when the second speed value U2 is reached, the detection resolution (detection sensitivity) is saturated and becomes constant, so that the change suddenly (suddenly) peaks out and a sense of discomfort is suppressed. .. With these controls, the visibility of the virtual image can be further improved.

第1乃至第8の何れか1つの態様に従属する第9の態様において、
前記ヘッドアップディスプレイ装置は、
前記運転者の前記視点の高さ位置に応じて前記アイボックスの位置を調整するに際し、前記光学部材を動かさず、前記画像の表示光の、前記光学部材における反射位置を変更する。
In the ninth aspect, which is subordinate to any one of the first to eighth aspects,
The head-up display device is
When adjusting the position of the eye box according to the height position of the viewpoint of the driver, the reflection position of the display light of the image on the optical member is changed without moving the optical member.

第9の態様では、上記の制御を実施するHUD装置は、運転者の目(視点)の高さ位置に応じてアイボックスの高さ位置を調整する場合に、光を被投影部材に投影する光学部材を、例えばアクチュエータを用いて回動させるようなことをせず、その光学部材における光の反射位置を変更することで対応する。 In the ninth aspect, the HUD device that implements the above control projects light onto the projected member when adjusting the height position of the eyebox according to the height position of the driver's eyes (viewpoint). This is done by changing the light reflection position of the optical member without rotating the optical member using, for example, an actuator.

近年のHUD装置は、例えば車両の前方のかなり広い範囲にわたって虚像を表示することを前提として開発される傾向があり、この場合、必然的に装置が大型化する。当然、光学部材も大型化する。この光学部材をアクチュエータ等を用いて回動等させるとその誤差によって、かえってアイボックスの高さ位置の制御の精度が低下することがあり、これを防止するために、光線が光学部材で反射する位置を変更することで対応することとしたものである。 Recent HUD devices tend to be developed on the premise of displaying a virtual image over a fairly wide area in front of the vehicle, for example, and in this case, the device is inevitably enlarged. Naturally, the optical member also becomes large. If this optical member is rotated by using an actuator or the like, the accuracy of controlling the height position of the eyebox may rather decrease due to the error, and in order to prevent this, light rays are reflected by the optical member. It was decided to respond by changing the position.

このような大型の光学部材では、その反射面を自由曲面として最適設計すること等によって、できるかぎり虚像の歪みが顕在化しないようにするが、しかし、上記のように、例えばアイボックスの周辺に運転者の視点が位置する場合等には、どうしても歪みが顕在化してしまう場合もある。よって、このようなときに、上記のワーピングパラメータの更新の感度を低下させる等の制御を実施することで、虚像の歪みによる見え方の変化による違和感が生じにくくすることができ、上記の制御を有効に活用して視認性を向上させることができる。 In such a large optical member, the distortion of the virtual image is prevented from becoming apparent as much as possible by optimally designing the reflecting surface as a free curved surface, but as described above, for example, around the eye box. When the driver's viewpoint is located, distortion may inevitably become apparent. Therefore, in such a case, by performing control such as lowering the sensitivity of updating the warping parameter, it is possible to prevent a sense of discomfort due to a change in appearance due to distortion of the virtual image, and the above control can be performed. It can be effectively used to improve visibility.

第1乃至第9の何れか1つの態様に従属する第10の態様において、
前記表示部の画像表示面に対応する仮想的な虚像表示面が、前記車両の前方の、路面に重畳するように配置される、
又は、
前記虚像表示面の前記車両に近い側の端部である近端部と前記路面との距離が小さく、前記車両から遠い側の端部である遠端部と前記路面との距離が大きくなるように、前記路面に対して斜めに傾いて配置される。
In a tenth aspect subordinate to any one of the first to ninth aspects,
A virtual virtual image display surface corresponding to the image display surface of the display unit is arranged so as to overlap the road surface in front of the vehicle.
Or
The distance between the near end portion of the virtual image display surface on the side closer to the vehicle and the road surface is small, and the distance between the far end portion on the far side from the vehicle and the road surface is large. In addition, it is arranged at an angle with respect to the road surface.

第10の態様では、HUD装置における、車両の前方等に配置される仮想的な虚像表示面(表示部としてのスクリーン等の表示面に対応する)が、路面に重畳されるように、あるいは、路面に対して傾斜して設けられる。前者は路面重畳HUDと称され、後者は傾斜面HUDと称されることがある。 In the tenth aspect, in the HUD device, a virtual virtual image display surface (corresponding to a display surface such as a screen as a display unit) arranged in front of the vehicle or the like is superimposed on the road surface, or It is installed at an angle with respect to the road surface. The former is sometimes referred to as a road surface superimposition HUD, and the latter is sometimes referred to as an inclined surface HUD.

これらは、路面に重畳される広い虚像表示面、又は路面に対して傾斜して設けられる広い虚像表示面を用いて、例えば、車両前方5m〜100mの範囲で、種々の表示を行うことができるものであり、HUD装置は大型化し、アイボックスも大型化して、従来よりも広い範囲で視点位置を高精度に検出して、適切なワーピングパラメータを用いた画像補正を行うことが好ましい。この場合、例えば、視点がアイボックスの周辺にあるとき等において、ワーピングパラメータの頻繁な更新に伴う画像(虚像)の視認性の低下が生じる場合があり、よって、本発明の制御方式の適用が有効となる。 These can perform various displays in the range of 5 m to 100 m in front of the vehicle, for example, by using a wide virtual image display surface superimposed on the road surface or a wide virtual image display surface provided at an angle with respect to the road surface. Therefore, it is preferable that the HUD device is enlarged and the eye box is also enlarged, the viewpoint position is detected with high accuracy in a wider range than before, and image correction using appropriate warping parameters is performed. In this case, for example, when the viewpoint is around the eye box, the visibility of the image (virtual image) may decrease due to frequent updates of the warping parameters. Therefore, the control method of the present invention can be applied. It becomes valid.

当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。 Those skilled in the art will readily appreciate that the embodiments according to the present invention exemplified may be further modified without departing from the spirit of the present invention.

図1(A)は、ワーピング処理の概要、及びワーピング処理を経て表示される虚像(及び虚像表示面)の歪みの態様を説明するための図、図1(B)は、ウインドシールドを介して運転者が視認する虚像の一例を示す図である。FIG. 1 (A) is a diagram for explaining an outline of the warping process and a mode of distortion of a virtual image (and a virtual image display surface) displayed through the warping process, and FIG. 1 (B) is a diagram for explaining a mode of distortion of a virtual image (and a virtual image display surface) displayed through the warping process. It is a figure which shows an example of the virtual image which a driver visually recognizes. 図2(A)は、視点位置追従ワーピング処理の概要を説明するための図、図2(B)は、内部を複数の部分領域に分割したアイボックスの構成例を示す図である。FIG. 2A is a diagram for explaining the outline of the viewpoint position tracking warping process, and FIG. 2B is a diagram showing a configuration example of an eyebox whose inside is divided into a plurality of partial regions. 図3(A)〜(F)は、ワーピング処理後の、歪み方が異なる虚像の例を示す図である。3 (A) to 3 (F) are diagrams showing examples of virtual images having different distortions after the warping process. 図4は、HUD装置のシステム構成の一例を示す図である。FIG. 4 is a diagram showing an example of the system configuration of the HUD device. 図5(A)は、内部が複数の部分領域に分割されたアイボックスにおける視点移動の例を示す図、図5(B)は、図5(A)に示される各視点移動に対するワーピングパラメータの更新の有無の例を表形式で示す図である。FIG. 5 (A) is a diagram showing an example of viewpoint movement in an eyebox whose interior is divided into a plurality of partial regions, and FIG. 5 (B) is a diagram showing warping parameters for each viewpoint movement shown in FIG. 5 (A). It is a figure which shows the example of the presence or absence of an update in a tabular form. ワーピングパラメータの画像への反映を鈍らせる制御の一例を示すタイミングチャートである。It is a timing chart which shows an example of the control which dulls the reflection of a warping parameter in an image. 図7(A)、(B)は、粗密分割方式のアイボックスの構成例を示す図である。7 (A) and 7 (B) are diagrams showing a configuration example of a coarse-dense division type eye box. 図8(A)は、粗密分割方式のアイボックスの他の構成例を示す図、図8(B)は、密部分領域を上限まで増やしたアイボックスの構成例を示す図である。FIG. 8A is a diagram showing another configuration example of the coarse / dense division type eyebox, and FIG. 8B is a diagram showing a configuration example of the eyebox in which the dense portion region is increased to the upper limit. 図9は、車速に応じてアイボックスの視点検出感度(視点検出分解能)を変化させる制御における特性例を示す図である。FIG. 9 is a diagram showing an example of characteristics in control for changing the viewpoint detection sensitivity (viewpoint detection resolution) of the eyebox according to the vehicle speed. 図10は、第1のワーピング画像補正制御(第1の制御)の手順例を示すフローチャートである。FIG. 10 is a flowchart showing a procedure example of the first warping image correction control (first control). 図11は、第2のワーピング画像補正制御(第2の制御)の手順例を示すフローチャートである。FIG. 11 is a flowchart showing a procedure example of the second warping image correction control (second control). 図12は、第3のワーピング画像補正制御(第3の制御)の手順例を示すフローチャートである。FIG. 12 is a flowchart showing a procedure example of the third warping image correction control (third control). 図13は、第4のワーピング画像補正制御(第4の制御)の手順例を示すフローチャートである。FIG. 13 is a flowchart showing a procedure example of the fourth warping image correction control (fourth control). 図14(A)は、路面重畳HUDによる表示例を示す図、図14(B)は、傾斜面HUDによる表示例を示す図、図14(C)は、HUD装置の主要部の構成例を示す図である。FIG. 14 (A) is a diagram showing a display example by the road surface superimposition HUD, FIG. 14 (B) is a diagram showing a display example by the inclined surface HUD, and FIG. 14 (C) is a configuration example of a main part of the HUD device. It is a figure which shows.

以下に説明する最良の実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。 The best embodiments described below have been used to facilitate understanding of the present invention. Therefore, one of ordinary skill in the art should note that the present invention is not unreasonably limited by the embodiments described below.

図1を参照する。図1(A)は、ワーピング処理の概要、及びワーピング処理を経て表示される虚像(及び虚像表示面)の歪みの態様を説明するための図、図1(B)は、ウインドシールドを介して運転者が視認する虚像の一例を示す図である。 See FIG. FIG. 1A is a diagram for explaining an outline of the warping process and a mode of distortion of a virtual image (and a virtual image display surface) displayed through the warping process, and FIG. 1B is a diagram for explaining a mode of distortion of a virtual image (and a virtual image display surface) displayed through the warping process. It is a figure which shows an example of the virtual image which a driver visually recognizes.

図1(A)に示されるように、HUD装置100は、表示部(例えば、光透過型のスクリーン)101と、反射鏡103と、表示光を投影する光学部材としての曲面ミラー(例えば凹面鏡であり、反射面は自由曲面である場合もある)105と、を有する。表示部101に表示された画像は、反射鏡103、曲面ミラー105を経て、被投影部材としてのウインドシールド2の虚像表示領域5に投影される。図1において、符号4は投影領域を示す。なお、HUD100は、曲面ミラーを複数設けてもよく、本実施形態のミラー(反射光学素子)に加えて、又は本実施形態のミラー(反射光学素子)の一部(又は全部)に代えて、レンズなどの屈折光学素子、回折光学素子などの機能性光学素子を含んでいてもよい。 As shown in FIG. 1A, the HUD device 100 includes a display unit (for example, a light transmitting screen) 101, a reflecting mirror 103, and a curved mirror (for example, a concave mirror) as an optical member for projecting the display light. Yes, the reflective surface may be a free curved surface) 105. The image displayed on the display unit 101 is projected onto the virtual image display area 5 of the windshield 2 as a projected member via the reflecting mirror 103 and the curved mirror 105. In FIG. 1, reference numeral 4 indicates a projection region. The HUD 100 may be provided with a plurality of curved mirrors, in addition to the mirror (refractive optical element) of the present embodiment, or in place of a part (or all) of the mirror (refracting optical element) of the present embodiment. It may include a refraction optical element such as a lens and a functional optical element such as a diffractive optical element.

画像の表示光の一部は、ウインドシールド2で反射されて、予め設定されたアイボックス(ここでは所定面積の四角形の形状とする)EBの内部に(あるいはEB上に)位置する運転者等の視点(目)Aに入射され、車両1の前方に結像することで、表示部101の表示面102に対応する仮想的な虚像表示面PS上に虚像Vが表示される。 A part of the display light of the image is reflected by the windshield 2, and the driver or the like located inside (or on the EB) the preset eye box (here, the shape is a quadrangle having a predetermined area). The virtual image V is displayed on the virtual virtual image display surface PS corresponding to the display surface 102 of the display unit 101 by being incident on the viewpoint (eye) A of the above and forming an image in front of the vehicle 1.

表示部101の画像は、曲面ミラー105の形状やウインドシールド2の形状等の影響を受けて歪む。その歪みを相殺するために、その歪みとは逆特性の歪みが画像に与えられる。このプレディストーション(前置歪み)方式の画像補正を、本明細書ではワーピング処理、あるいはワーピング画像補正処理と称する。 The image of the display unit 101 is distorted due to the influence of the shape of the curved mirror 105, the shape of the windshield 2, and the like. In order to cancel the distortion, a distortion having the opposite characteristic to the distortion is given to the image. This pre-distortion (pre-distortion) type image correction is referred to as a warping process or a warping image correction process in the present specification.

ワーピング処理によって、虚像表示面PS上に表示される虚像Vが、湾曲のない平坦な画像となるのが理想ではあるが、例えば、ウインドシールド2上の広い投影領域4に表示光を投影すると共に、虚像表示距離をかなり広範囲に設定する大型のHUD装置100等では、ある程度の歪みが残ることは否めず、これは仕方のないことである。 Ideally, the virtual image V displayed on the virtual image display surface PS by the warping process becomes a flat image without curvature. For example, the display light is projected onto the wide projection area 4 on the windshield 2. In a large HUD device 100 or the like in which the virtual image display distance is set in a considerably wide range, it is undeniable that some distortion remains, which is unavoidable.

図1の左上において、破線で示されるPS’は、歪みが完全には除去されていない虚像表示面を示し、V’は、その虚像表示面PS’に表示される虚像を示している。 In the upper left of FIG. 1, PS'shown by a broken line indicates a virtual image display surface in which distortion is not completely removed, and V'indicates a virtual image displayed on the virtual image display surface PS'.

また、歪みが残る虚像Vの、歪みの程度あるいは歪みの態様は、視点AがアイボックスEB上のどの位置にあるかによって異なる。HUD装置100の光学系は、視点Aが中央部付近に位置することを想定して設計されることから、視点Aが中央部付近にあるときは比較的、虚像の歪みは小さく、周辺部になるほど虚像の歪みが大きくなる傾向が生じる。 Further, the degree of distortion or the mode of distortion of the virtual image V in which the distortion remains differs depending on the position of the viewpoint A on the eyebox EB. Since the optical system of the HUD device 100 is designed on the assumption that the viewpoint A is located near the central portion, the distortion of the virtual image is relatively small when the viewpoint A is near the central portion, and the distortion of the virtual image is relatively small in the peripheral portion. Indeed, the distortion of the virtual image tends to increase.

図1(B)には、ウインドシールド2を介して運転者が視認する虚像Vの一例が示されている。図1(B)では、矩形の外形を有する虚像Vには、例えば縦に5個、横に5個、合計で25個の基準点(基準画素点)G(i,j)(ここで、i、jは共に1〜5の値をとり得る変数)が設けられる。画像(原画像)における各基準点に対して、ワーピング処理による、虚像Vに生じる歪みとは逆特性の歪みが与えられ、したがって、理想的には、その事前に与えられる歪みと、現実に生じる歪みとが相殺され、理想的には、図1(B)に示されるような湾曲のない虚像Vが表示される。基準点G(i,j)の数は、補間処理等によって適宜、増やすことができる。なお、図1(B)において、符号7はステアリングホイールである。 FIG. 1B shows an example of a virtual image V visually recognized by the driver through the windshield 2. In FIG. 1B, the virtual image V having a rectangular outer shape has, for example, five reference points (reference pixel points) G (i, j) vertically and five horizontally, for a total of 25 reference points (reference pixel points) G (i, j). i and j are both variables that can take values 1 to 5). For each reference point in the image (original image), a distortion having a characteristic opposite to the distortion generated in the virtual image V due to the warping process is given, and therefore, ideally, the distortion given in advance and the distortion actually generated occur. The distortion is offset and ideally a non-curved virtual image V as shown in FIG. 1 (B) is displayed. The number of reference points G (i, j) can be appropriately increased by interpolation processing or the like. In FIG. 1B, reference numeral 7 is a steering wheel.

次に、図2を参照する。図2(A)は、視点位置追従ワーピング処理の概要を説明するための図、図2(B)は、内部を複数の部分領域に分割したアイボックスの構成例を示す図である。図2において、図1と共通する部分には同じ参照符号を付している(この点は以降の図においても同様である)。 Next, refer to FIG. FIG. 2A is a diagram for explaining the outline of the viewpoint position tracking warping process, and FIG. 2B is a diagram showing a configuration example of an eyebox whose inside is divided into a plurality of partial regions. In FIG. 2, the same reference numerals are given to the parts common to those in FIG. 1 (this point is the same in the following figures).

図2(A)に示されるように、アイボックスEBは、複数(ここでは9個)の部分領域Z1〜Z9に分割されており、各部分領域Z1〜Z9を単位として、運転者の視点Aの位置が検出される。 As shown in FIG. 2A, the eyebox EB is divided into a plurality of (here, 9) subregions Z1 to Z9, and the driver's viewpoint A is set in units of the subregions Z1 to Z9. The position of is detected.

HUD装置100の投射光学系118から画像の表示光Kが出射され、その一部がウインドシールド2により反射されて、運転者の視点(目)Aに入射する。視点Aがアイボックス内にあるとき、運転者は画像の虚像を視認することができる。 The display light K of the image is emitted from the projection optical system 118 of the HUD device 100, and a part of the display light K is reflected by the windshield 2 and incident on the driver's viewpoint (eye) A. When the viewpoint A is in the eye box, the driver can visually recognize the virtual image of the image.

HUD装置100は、ROM210を有し、ROM210は、画像変換テーブル212を内蔵する。画像変換テーブル212は、例えばデジタルフィルタによる画像補正(ワーピング画像補正)のための多項式、乗数、定数等を決定するワーピングパラメータWPを記憶している。ワーピングパラメータWPは、アイボックスEBにおける各部分領域Z1〜Z9の各々に対応して設けられる。図2(A)では、各部分領域に対応するワーピングパラメータをWP(Z1)〜WP(Z9)が示されている。なお、図中、符号としては、WP(Z1)、WP(Z4)、WP(Z7)のみを示している。 The HUD device 100 has a ROM 210, and the ROM 210 includes an image conversion table 212. The image conversion table 212 stores, for example, a warping parameter WP that determines a polynomial, a multiplier, a constant, or the like for image correction (warping image correction) by a digital filter. The warping parameter WP is provided corresponding to each of the partial regions Z1 to Z9 in the eyebox EB. In FIG. 2A, WP (Z1) to WP (Z9) are shown as warping parameters corresponding to each partial region. In the figure, only WP (Z1), WP (Z4), and WP (Z7) are shown as reference numerals.

視点Aが移動した場合、その視点Aが、複数の部分領域Z1〜Z9のうちの、どの位置にあるかが検出される。そして、検出された部分領域に対応するワーピングパラメータWP(Z1)〜WP(Z9)の何れかがROM210から読みだされ(ワーピングパラメータの更新)、そのワーピングパラメータを用いてワーピング処理が実施される。 When the viewpoint A moves, the position of the viewpoint A in the plurality of partial regions Z1 to Z9 is detected. Then, any of the warping parameters WP (Z1) to WP (Z9) corresponding to the detected partial area is read from the ROM 210 (warping parameter update), and the warping process is performed using the warping parameters.

図2(B)には、部分領域の数を図2(A)の例よりも増やしたアイボックスEBが示されている。アイボックスEBは、縦に6個、横に10個、合計で60個の部分領域に分割されている。各部分領域は、X方向、Y方向の各座標位置をパラメータとして、Z(X、Y)と表示されている。 FIG. 2B shows an eyebox EB in which the number of partial regions is increased as compared with the example of FIG. 2A. The eyebox EB is divided into a total of 60 subregions, 6 in the vertical direction and 10 in the horizontal direction. Each subregion is displayed as Z (X, Y) with each coordinate position in the X direction and the Y direction as a parameter.

また、図2(B)の例では、太線の矩形Cの内部の12個の部分領域(白抜きの領域)が中央部(中央領域)ZAであり、その外側の領域(斜線を付して示される)が周辺部(周辺領域)ZBであり、両者は、本発明に係るワーピング処理の感度の調整のために、区別されて認識(検出)される。 Further, in the example of FIG. 2B, the 12 partial regions (white regions) inside the thick line rectangle C are the central portion (central region) ZA, and the outer regions (with diagonal lines). (Shown) is a peripheral portion (peripheral region) ZB, and both are recognized (detected) separately for adjusting the sensitivity of the warping process according to the present invention.

次に、図3を参照する。図3(A)〜(F)は、ワーピング処理後の、歪み方が異なる虚像の例を示す図である。先に述べたとおり、運転者の視点Aがアイボックスのどの位置にあるかによって、ワーピング処理後の虚像Vの見え方が異なる。 Next, refer to FIG. 3 (A) to 3 (F) are diagrams showing examples of virtual images having different distortions after the warping process. As described above, the appearance of the virtual image V after the warping process differs depending on the position of the driver's viewpoint A in the eye box.

図3(A)に示されるように、ウインドシールド2の虚像表示領域5に表示される虚像Vは、歪みが除去されて湾曲のない態様で表示されるのが理想ではある。しかし、実際の虚像Vには、ワーピング処理を施した後においても歪みが残留しており、その歪みの程度や態様は、視点Aの位置に応じて変化する。 As shown in FIG. 3A, it is ideal that the virtual image V displayed in the virtual image display area 5 of the windshield 2 is displayed in a mode in which distortion is removed and there is no curvature. However, distortion remains in the actual virtual image V even after the warping process is performed, and the degree and mode of the distortion changes depending on the position of the viewpoint A.

図3(B)の例では、歪みはあるものの比較的軽度の歪みであり、虚像Vは、図3(A)に近い見栄えである。図3(C)の例では、歪みの傾向は図3(B)と同様といえるが、歪みの程度は大きくなっており、図3(A)と同様の見栄えとはいえない。 In the example of FIG. 3 (B), although there is distortion, the distortion is relatively light, and the virtual image V looks similar to that of FIG. 3 (A). In the example of FIG. 3 (C), the tendency of distortion can be said to be the same as that of FIG. 3 (B), but the degree of distortion is large, and it cannot be said that the appearance is the same as that of FIG. 3 (A).

また、図3(D)の例では、歪みの程度は図3(C)と同様ではあるが、歪みの態様(歪みの傾向、あるいは歪みが生じた後の虚像の見え方の態様)は、図3(C)とは異なっている。 Further, in the example of FIG. 3 (D), the degree of distortion is the same as that of FIG. 3 (C), but the mode of distortion (the tendency of distortion or the mode of appearance of a virtual image after distortion occurs) is different. It is different from FIG. 3 (C).

図3(E)の例では、歪みの程度がより大きくなり、虚像Vの左右のバランスもとれていない。図3(F)の例では、虚像Vは、図3(E)に似た傾向の歪み方ではあるが、見た目は、図3(F)とはかなり異なる。 In the example of FIG. 3 (E), the degree of distortion is larger and the left and right of the virtual image V is not balanced. In the example of FIG. 3 (F), the virtual image V has a tendency of distortion similar to that of FIG. 3 (E), but the appearance is considerably different from that of FIG. 3 (F).

このように、同じ内容を表示している虚像V(ワーピング処理後の虚像V)であっても、視点Aの位置に応じて、その見え方がかなり異なる。例えば、視点Aがアイボックスの中央部に位置するときは、視認される虚像Vは、図3(B)のように比較的、歪みが少ないが、視点Aが中央部から周辺部に移動すると、例えば、図3(E)のように歪みが比較的大きくなる。 As described above, even the virtual image V (virtual image V after the warping process) displaying the same contents has a considerably different appearance depending on the position of the viewpoint A. For example, when the viewpoint A is located at the center of the eyebox, the visually recognized virtual image V has relatively little distortion as shown in FIG. 3B, but when the viewpoint A moves from the center to the periphery, For example, as shown in FIG. 3 (E), the distortion becomes relatively large.

この状態(視点Aがアイボックスの周辺部の1つの部分領域に位置する状態である図3(E)の場合)で、例えば、視点Aが他の部分領域に移動し、例えば、図3(B)のように虚像Vの見え方が変化する場合(変化a1)、あるいは、図3(F)のように変化する場合(変化a2)の場合を想定すると、いずれの場合も、見え方が、かなり変化しており、運転者(ユーザー)が違和感を生じる可能性が高まる。 In this state (in the case of FIG. 3 (E) in which the viewpoint A is located in one partial region of the peripheral portion of the eye box), for example, the viewpoint A moves to another partial region, and for example, FIG. 3 ( Assuming a case where the appearance of the virtual image V changes as shown in B) (change a1) or a case where the appearance changes as shown in FIG. 3 (F) (change a2), the appearance changes in both cases. , It has changed considerably, and the possibility that the driver (user) will feel uncomfortable increases.

言い換えれば、視点Aが、アイボックスEBの周辺領域(図2(C)の斜線が施されている領域ZB)にあるとき、ワーピングパラメータが更新されて新たにワーピング処理がなされると、その視点移動が、アイボックスEBの周辺領域の1つの領域から他の周辺領域への移動、あるいは、アイボックスEBの周辺領域の1つから中央部の領域の1つへの移動を問わず、そのワーピングが、虚像Vの見え方(見栄え)の変化に与える影響が大きく、画像の変化を運転者が視認し易くなるといえる。したがって、特に、視点AがアイボックスEBの周辺領域に位置するときに生じる視点移動に対するワーピングに関して、虚像Vの見え方が瞬時に切り替わることによる違和感の発生を効果的に低減することが有効となる。 In other words, when the viewpoint A is in the peripheral area of the eyebox EB (the area ZB shaded in FIG. 2C), when the warping parameter is updated and a new warping process is performed, that viewpoint is obtained. Whether the movement is from one area of the peripheral area of the eyebox EB to another, or from one of the peripheral areas of the eyebox EB to one of the central areas, its warping. However, it can be said that the change in the appearance (appearance) of the virtual image V is greatly affected, and the change in the image can be easily visually recognized by the driver. Therefore, in particular, regarding the warping for the viewpoint movement that occurs when the viewpoint A is located in the peripheral region of the eyebox EB, it is effective to effectively reduce the occurrence of discomfort due to the instantaneous switching of the appearance of the virtual image V. ..

次に、図4を参照する。図4は、HUD装置のシステム構成の一例を示す図である。車両1には、運転者の視点A(目、瞳)の位置を検出する視点検出カメラ110が設けられている。また、車両1には、運転者がHUD装置100に必要な情報を設定すること等を可能とするために操作部130が設けられ、また、車両1の各種の情報を収集することが可能な車両ECU140が設けられている。 Next, refer to FIG. FIG. 4 is a diagram showing an example of the system configuration of the HUD device. The vehicle 1 is provided with a viewpoint detection camera 110 that detects the position of the driver's viewpoint A (eyes, pupils). Further, the vehicle 1 is provided with an operation unit 130 to enable the driver to set necessary information in the HUD device 100, and various information of the vehicle 1 can be collected. A vehicle ECU 140 is provided.

また、HUD装置100は、光源112と、投光部114と、投射光学系118と、視点位置検出部(視点位置判定部)120と、バス150と、バスインターフェース170と、表示制御部180と、画像生成部200と、画像変換テーブル212を内蔵するROM210と、画像(原画像)データ222を記憶し、かつワーピング処理後の画像データ224を一時的に記憶するVRAM220と、を有している。 Further, the HUD device 100 includes a light source 112, a light projecting unit 114, a projection optical system 118, a viewpoint position detection unit (viewpoint position determination unit) 120, a bus 150, a bus interface 170, and a display control unit 180. It has an image generation unit 200, a ROM 210 having a built-in image conversion table 212, and a VRAM 220 that stores image (original image) data 222 and temporarily stores image data 224 after warping processing. ..

視点位置検出部120は、視点座標検出部122と、検出された座標に基づいて、視点Aがアイボックス内のどの部分領域に位置するかを検出(判定)するアイボックス内の部分領域検出部124と、を有する。 The viewpoint position detection unit 120 detects (determines) which part region in the eyebox the viewpoint A is located based on the viewpoint coordinate detection unit 122 and the detected coordinates, and the partial area detection unit in the eyebox. It has 124 and.

また、表示制御部180は、車両1の速度を検出(判定)する速度検出部(低速状態を判定する低速状態判定部を兼ねる)182と、ワーピング制御部184(ワーピング管理部185を備える)と、タイマー190と、メモリ制御部192と、ワーピング処理部(ワーピング画像補正処理部)194と、を有する。 Further, the display control unit 180 includes a speed detection unit (which also serves as a low speed state determination unit for determining a low speed state) 182 for detecting (determining) the speed of the vehicle 1 and a warping control unit 184 (which includes a warping management unit 185). , A timer 190, a memory control unit 192, and a warping processing unit (warping image correction processing unit) 194.

また、ワーピング管理部185は、(視点Aがアイボックスの周辺領域にあることを検出する周辺視点検出部186と、アイボックスの部分領域情報の一時蓄積部188とを備える。 Further, the warping management unit 185 includes (a peripheral viewpoint detection unit 186 for detecting that the viewpoint A is in the peripheral region of the eye box, and a temporary storage unit 188 for partial area information of the eye box.

基本的な動作は以下のとおりである。すなわち、視点位置検出部120から送られてくる部分領域情報(視点Aがアイボックスのどの部分領域にあるかを示す情報)をアドレス変数として用いて、メモリ制御部192がROM210にアクセスし、対応するワーピングパラメータを読み出し、読みだされたワーピングパラメータを用いてワーピング処理部(ワーピング画像補正処理部)194が、原画像に対してワーピング処理を施し、ワーピング処理後のデータに基づいて画像生成部200にて所定のフォーマットの画像が生成され、その画像が、例えば光源112や投光部114等に供給される、という動作が実施される。 The basic operation is as follows. That is, the memory control unit 192 accesses the ROM 210 and responds by using the partial area information (information indicating which partial area of the eyebox the viewpoint A is in) sent from the viewpoint position detection unit 120 as an address variable. The warping parameter is read out, and the warping processing unit (warping image correction processing unit) 194 performs warping processing on the original image using the read warping parameter, and the image generation unit 200 is based on the data after the warping processing. An image of a predetermined format is generated at the above, and the image is supplied to, for example, a light source 112, a light projecting unit 114, or the like.

但し、視点Aの移動に単純に追従させてワーピングを行うと、上記のとおり、虚像Vの見え方が瞬時的に変化して、運転者に視覚的な違和感を生じさせる場合があることから、条件を設定しておき、その条件を満たす場合には、ワーピング処理の感度を意図的に鈍らせる(抑制する)制御を実施する。 However, if warping is performed by simply following the movement of the viewpoint A, the appearance of the virtual image V may change instantaneously as described above, which may cause a visual discomfort to the driver. Conditions are set, and if the conditions are met, control is performed to intentionally slow down (suppress) the sensitivity of the warping process.

その制御は、4つの方式に大別される。第1の制御は、周辺視点検出部186によって、視点AがアイボックスEBの周辺領域に位置することが検出されたとき、その後に視点Aの移動があってもそれを無視し、ワーピングパラメータを更新せず、現在のワーピングパラメータを維持させる制御である。 The control is roughly classified into four methods. The first control is that when the peripheral viewpoint detection unit 186 detects that the viewpoint A is located in the peripheral region of the eyebox EB, even if the viewpoint A moves thereafter, it is ignored and the warping parameter is set. It is a control that keeps the current warping parameters without updating.

第2の制御は、アイボックスの部分領域情報の一時蓄積部188に、視点位置検出部120から送られてくる部分領域情報を一時的に蓄積し、タイマー190により所定時間をカウントし、その所定時間が経過した時点で、部分領域情報を読みだしてROM210にアクセスし、ワーピングパラメータを更新する処理(ワーピングを遅延させる第1の処理)、又は、その処理に加えて、所定時間経過後に、視点Aが同じ部分領域に留まっているかを例えばワーピング管理部185が判定し、留まっている場合にのみワーピングパラメータの更新を許可する処理(視点が同じ領域にあるか否かの判定を追加した第2の処理)である。 The second control temporarily stores the partial area information sent from the viewpoint position detection unit 120 in the temporary storage unit 188 of the partial area information of the eye box, counts a predetermined time by the timer 190, and determines the predetermined time. When the time has elapsed, the partial area information is read out, the ROM 210 is accessed, and the warping parameter is updated (the first process of delaying the warping), or in addition to the process, the viewpoint is obtained after a predetermined time has elapsed. For example, the warping management unit 185 determines whether A stays in the same partial area, and only when it stays, a process of permitting the update of the warping parameter (the second is added to determine whether the viewpoint is in the same area). Processing).

第3の制御は、視点位置の検出を不連続とし、断続的な視点位置の検出を行うものである。例えば、図7(A)、(B)、図8(A)に示すような、中央が密に分割され、周辺が粗く分割された粗密分割方式のアイボックスを使用して、特に、アイボックスの周辺領域における視点Aの検出感度(検出の分解能)を低下させることが可能である。 The third control discontinuously detects the viewpoint position and intermittently detects the viewpoint position. For example, using a coarse-dense division type eyebox in which the center is densely divided and the periphery is coarsely divided as shown in FIGS. 7 (A), 7 (B), and 8 (A), in particular, the eyebox is used. It is possible to reduce the detection sensitivity (detection resolution) of the viewpoint A in the peripheral region of the above.

第4の制御は、図9、及び図7(A)〜図8(B)に示されるように、自車両(車両1)の速度に応じて、アイボックスの分割の態様を変化させ、視点Aの検出感度(検出の分解能)を適応的に変更する制御である。 In the fourth control, as shown in FIGS. 9 and 7 (A) to 8 (B), the mode of dividing the eye box is changed according to the speed of the own vehicle (vehicle 1), and the viewpoint is changed. This is a control that adaptively changes the detection sensitivity (detection resolution) of A.

以下、順を追って説明する。図5を参照する。図5(A)は、内部が複数の部分領域に分割されたアイボックスにおける視点移動の例を示す図、図5(B)は、図5(A)に示される各視点移動に対するワーピングパラメータの更新の有無の例を表形式で示す図である。 Hereinafter, the description will be given step by step. See FIG. FIG. 5 (A) is a diagram showing an example of viewpoint movement in an eyebox whose interior is divided into a plurality of partial regions, and FIG. 5 (B) is a diagram showing warping parameters for each viewpoint movement shown in FIG. 5 (A). It is a figure which shows the example of the presence or absence of an update in a tabular form.

図5の例は、先の述べた第1の制御を実施する例である。図5(A)の例では、先に図2(B)に示したアイボックスEBが使用されている(但し、一例であり、図7等に示される粗密分割方式のアイボックスを使用することも可能である)。 The example of FIG. 5 is an example of carrying out the first control described above. In the example of FIG. 5A, the eyebox EB shown in FIG. 2B is used (however, it is an example, and the coarse / dense division type eyebox shown in FIG. 7 or the like is used. Is also possible).

図5(A)において、アイボックスEB内における視点Aの移動態様として、(i)〜(v)の各視点移動が例示されている。また、運転中に、運転者の視点AがアイボックスEBから外れてその位置の検出が途切れ(視点喪失、あるいは視点ロストが生じ)、その後、視点AがアイボックスEB内に戻る場合があり、この場合の視点移動の態様として、(1)及び(2)の移動、(3)及び(2)の移動が例示されている。 In FIG. 5A, each viewpoint movement of (i) to (v) is exemplified as a movement mode of the viewpoint A in the eyebox EB. Further, during driving, the driver's viewpoint A may deviate from the eyebox EB and the detection of the position may be interrupted (viewpoint loss or viewpoint lost), and then the viewpoint A may return to the eyebox EB. As the mode of viewpoint movement in this case, the movements of (1) and (2) and the movements of (3) and (2) are exemplified.

図5(B)に示されるように、視点Aが中央領域ZA内にて移動する場合(視点移動(i)〜(iii)の場合)は、ワーピングパラメータの更新が有効であり、一方、視点Aが周辺領域ZBにあるときに生じた視点移動については、ワーピングが虚像Vの見え方(見栄え)に与える影響が大きいことを考慮して、ワーピングパラメータの更新を無効とする。 As shown in FIG. 5B, when the viewpoint A moves within the central region ZA (in the case of the viewpoint movements (i) to (iii)), updating the warping parameters is effective, while the viewpoint Regarding the viewpoint movement that occurs when A is in the peripheral region ZB, the update of the warping parameter is invalidated in consideration of the fact that warping has a large effect on the appearance (appearance) of the virtual image V.

また、視点ロストの場合(視点移動(1)及び(2)、(3)及び(2)の場合)は、無理にワーピングを行うと虚像Vの見え方の変化が大きくなって違和感が生じる可能性が高いと考えられることから、原則として、ワーピングパラメータの更新は無効とする。但し、条件を細かく設定し、所定条件を満たす場合には、ワーピングを行うようにしてもよい。このような変形や応用は適宜、なし得る。 Also, in the case of lost viewpoint (in the case of viewpoint movement (1) and (2), (3) and (2)), if warping is forcibly performed, the change in the appearance of the virtual image V may become large and a sense of discomfort may occur. As a general rule, updating the warping parameter is invalid because it is considered to be highly probable. However, if the conditions are set in detail and the predetermined conditions are satisfied, warping may be performed. Such deformations and applications can be made as appropriate.

次に、図6を参照する。図6は、ワーピングパラメータの画像への反映を鈍らせる制御の一例を示すタイミングチャートである。図6は、先に述べた第2の制御を実施する例を示す。 Next, refer to FIG. FIG. 6 is a timing chart showing an example of control for blunting the reflection of warping parameters on an image. FIG. 6 shows an example of carrying out the second control described above.

図6に示されるように、時刻t1〜t5の各々の時点において、周期的に視点位置の検出タイミングが到来する。視点Aの位置が検出されて、その検出情報が表示制御部180に取り込まれたとき、t1〜t5の各時点において、視点Aが存在する部分領域として、Z(p、q)、Z(p、q)、Z(r、s)、Z(u、v)、Z(u、v)が検出されたとする。 As shown in FIG. 6, the detection timing of the viewpoint position arrives periodically at each time point t1 to t5. When the position of the viewpoint A is detected and the detection information is taken into the display control unit 180, Z (p, q) and Z (p) are used as the partial regions where the viewpoint A exists at each time point t1 to t5. , Q), Z (r, s), Z (u, v), Z (u, v) are detected.

上述の第1の処理(ワーピングパラメータの更新を所定時間だけ遅延させて、視点移動に追従した瞬時のワーピングを抑制する処理)を実施するときは、視点Aの移動が検出された後、所定時間τが経過した時点でワーピングを実施する。新しいワーピングパラメータの画像への反映を所定時間だけ遅らせることで、視点Aに追従して瞬時的に画像(虚像)が変化することを防止して違和感を低減することができる。 When the above-mentioned first process (process of delaying the update of the warping parameter by a predetermined time and suppressing the instantaneous warping following the movement of the viewpoint) is performed, the movement of the viewpoint A is detected and then the predetermined time is reached. Warping is performed when τ has elapsed. By delaying the reflection of the new warping parameter on the image by a predetermined time, it is possible to prevent the image (virtual image) from changing instantaneously following the viewpoint A and reduce the sense of discomfort.

また、第2の処理(さらに、視点Aが所定時間経過後も同じ部分領域に留まっているかを判定する処理)を実施するときは、部分領域の検出時点と、所定時間τの経過後の各時点における視点Aが位置する部分領域が一致するか否かを判定する。一致するときは、ワーピングを実施し(言い換えれば、ワーピングパラメータを更新し)、不一致のときは、ワーピングを実施しない(言い換えれば、ワーピングパラメータを更新しない)。 Further, when the second process (furthermore, the process of determining whether the viewpoint A remains in the same partial region even after the elapse of the predetermined time) is performed, each of the time when the partial region is detected and after the elapse of the predetermined time τ. It is determined whether or not the partial regions where the viewpoint A at the time point is located match. If they match, warping is performed (in other words, the warping parameters are updated), and if they do not match, warping is not performed (in other words, the warping parameters are not updated).

例えば、車両1の運転中に、何らかの理由で、運転者の視点Aがかなり広範囲にわたって瞬時的に移動するような場合も想定され得る、このようなときでも、第2の処理を行えば、視点Aが移動中のときは、ワーピングパラメータの更新は行われず、移動が完了して視点の位置が安定したことが検出されたときに、更新したワーピングパラメータによる画像の補正を行うことができ、したがって、画像(虚像)の見え方が次々と変化して違和感が生じることが抑制される。 For example, it can be assumed that the driver's viewpoint A moves instantaneously over a fairly wide range for some reason while driving the vehicle 1. Even in such a case, if the second process is performed, the viewpoint can be seen. When A is moving, the warping parameters are not updated, and when it is detected that the movement is completed and the position of the viewpoint is stable, the image can be corrected by the updated warping parameters. , It is suppressed that the appearance of the image (virtual image) changes one after another and a sense of discomfort occurs.

図6の例では、時刻t2〜t5の期間においては、部分領域Z(p、q)に対応するワーピングパラメータが有効となり、時刻t5以降、部分領域Z(u、v)に対応するワーピングパラメータが有効となる。 In the example of FIG. 6, the warping parameter corresponding to the partial region Z (p, q) is valid during the period t2 to t5, and the warping parameter corresponding to the partial region Z (u, v) is valid after the time t5. It becomes valid.

また、上記の第1、第2の処理を行うのは、アイボックスEBの周辺領域に視点Aがあるときに視点移動が生じた場合に限定してもよい(第3の処理)。ワーピングパラメータの更新に伴う画像(虚像)の見え方の変化が大きいと考えられる、視点が周辺領域にある場合に、第3の処理を行って、瞬時的に画像(虚像)の見え方が次々に変化することを抑制することができる。 Further, the above-mentioned first and second processes may be performed only when the viewpoint moves when the viewpoint A is in the peripheral region of the eyebox EB (third process). When the viewpoint is in the peripheral area, which is considered to have a large change in the appearance of the image (virtual image) due to the update of the warping parameter, the third process is performed to instantly change the appearance of the image (virtual image) one after another. It is possible to suppress the change to.

次に、図7、図8を参照する。図7(A)、(B)は、粗密分割方式のアイボックスの構成例を示す図である。図8(A)は、粗密分割方式のアイボックスの他の構成例を示す図、図8(B)は、密部分領域を上限まで増やしたアイボックスの構成例を示す図である。 Next, reference to FIGS. 7 and 8. 7 (A) and 7 (B) are diagrams showing a configuration example of a coarse-dense division type eye box. FIG. 8A is a diagram showing another configuration example of the coarse / dense division type eyebox, and FIG. 8B is a diagram showing a configuration example of the eyebox in which the dense portion region is increased to the upper limit.

上述した第3の制御は、視点位置の検出を断続的に実施する(連続的には行わない)ことによって実現される。例えば、視点Aがアイボックスの所定範囲内にあるときは、現在の位置から所定方向(例えばX軸方向)に所定距離だけ移動したときに、現在の位置とは異なる他の位置に移動したとみなしてワーピングパラメータを他の位置に対応するワーピングパラメータに更新するが、しかし、その一方、視点Aが所定の他の範囲内にあるときは、視点Aが上記の他の位置から所定方向(例えばX軸方向)に、上記と同様に所定距離だけ移動して、視点Aが他の位置とは異なる別の位置に移ったとしても、別の位置に対応するワーピングパラメータへの更新は実施しない、という制御を、表示制御部180(のワーピング制御部184)が行うことにより実現される。 The above-mentioned third control is realized by intermittently (not continuously) detecting the viewpoint position. For example, when the viewpoint A is within a predetermined range of the eye box, when the viewpoint A is moved from the current position by a predetermined distance in a predetermined direction (for example, the X-axis direction), the viewpoint A is moved to another position different from the current position. The warping parameter is deemed to be updated to the warping parameter corresponding to another position, but on the other hand, when the viewpoint A is within a predetermined other range, the viewpoint A is in a predetermined direction (for example, from the other position described above). Even if the viewpoint A moves to a different position from the other position by moving a predetermined distance in the X-axis direction in the same manner as above, the warping parameter corresponding to the other position is not updated. This control is realized by the display control unit 180 (warping control unit 184 of the display control unit 180).

言い換えれば、視点Aが、所定方向に所定距離ずつ、繰り返し移動する場合に、アイボックスEBの内部の分割方式には関係なく、例えば、ある区間では、1回の移動毎にワーピングパラメータを更新するが、さらに視点が移動して違う区間になったときは、そのような移動毎のワーピングパラメータの更新を行わず、これによって、ワーピングパラメータの更新が有、無、有、というように、連続的ではない、言い換えれば断続的な更新が実施される。これによって、ワーピング補正処理の感度(視点検出の感度ということもできる)を低下させて、ワーピングパラメータの更新に伴う画像(虚像)の見え方が変化することによる違和感の発生を抑制することができる。 In other words, when the viewpoint A repeatedly moves in a predetermined direction by a predetermined distance, the warping parameter is updated for each movement in a certain section, for example, regardless of the division method inside the eyebox EB. However, when the viewpoint moves further to a different section, the warping parameter is not updated for each movement, so that the warping parameter is updated continuously, with, without, or with. Not, in other words, intermittent updates are carried out. As a result, the sensitivity of the warping correction process (which can also be called the sensitivity of viewpoint detection) can be lowered, and the occurrence of discomfort due to the change in the appearance of the image (virtual image) due to the update of the warping parameter can be suppressed. ..

また、例えば、アイボックスとして、図7、図8に示されるような、中央(中央部)を密に分割し、周辺(周辺部)を粗く分割した粗密分割方式のアイボックスを採用し、各部分領域を単位として視点Aの位置を判定して、視点追従ワーピング制御を実施してもよい。アイボックスEBの部分領域を単位として視点位置を判定する点では、アイボックスの中央、周辺とも共通するが、周辺では、1つの部分領域の面積が大きく、従って、視点が少し移動しても、隣接する次の部分領域へと視線が移る可能性が低くなっている。よって、視点移動の検出頻度が低下し、その分、ワーピングパラメータの更新の頻度も抑制されることになる。 Further, for example, as the eye box, as shown in FIGS. 7 and 8, a coarse-dense division type eye box in which the central portion (central portion) is densely divided and the peripheral portion (peripheral portion) is roughly divided is adopted. The position of the viewpoint A may be determined in units of partial regions, and viewpoint tracking warping control may be performed. In terms of determining the viewpoint position in units of the partial area of the eyebox EB, it is common to both the center and the periphery of the eyebox, but in the periphery, the area of one partial area is large, so even if the viewpoint moves a little, It is less likely that the line of sight will shift to the next adjacent subregion. Therefore, the frequency of detecting the movement of the viewpoint is reduced, and the frequency of updating the warping parameter is suppressed accordingly.

図7(A)の例では、アイボックスEBにおいて、太線の四角形の輪郭Cの内部が中央領域ZAであり、その外側の領域が周辺領域ZBである。図示されるように、中央領域ZAにおいて、領域がより密に(より細かく)分割されており、視点位置の検出感度が高く、一方、周辺領域ZBでは、領域の分割を粗くして、視点位置の検出感度を、中央領域ZAと比較して低下させている。 In the example of FIG. 7A, in the eye box EB, the inside of the outline C of the quadrangle of the thick line is the central region ZA, and the outer region thereof is the peripheral region ZB. As shown in the figure, in the central region ZA, the region is divided more densely (more finely) and the detection sensitivity of the viewpoint position is high, while in the peripheral region ZB, the division of the region is roughened and the viewpoint position is divided. The detection sensitivity of is reduced as compared with the central region ZA.

図7(B)では、太線の四角形の輪郭Cの外側に、もう一つの四角形の輪郭Dを設けて、輪郭Cと輪郭Dに挟まれた領域を、第1の周辺領域ZCとし、その第1の周辺領域ZCの外側の領域を第2の周辺領域ZB’としている。周辺領域において、視点位置の検出感度を抑制するという点では、図7(A)の例と共通するが、図7(B)の場合、アイボックスEBの内部の部分領域の数がより増えている。よって、図7(B)の方が、図7(A)よりも視点位置の検出感度が向上している。具体的には、周辺領域ZBが、第1、第2の周辺領域ZC、ZB’に分割され、第1の周辺領域ZCにおける部分領域の区画を細かくして、部分領域数を増やしていることから、周辺領域ZB(斜線が施されている領域)における視点位置の検出感度が、図7(A)の例よりも向上している。 In FIG. 7B, another quadrangular contour D is provided outside the quadrangular contour C of the thick line, and the region sandwiched between the contour C and the contour D is designated as the first peripheral region ZC. The region outside the peripheral region ZC of 1 is designated as the second peripheral region ZB'. It is common with the example of FIG. 7A in that the detection sensitivity of the viewpoint position is suppressed in the peripheral region, but in the case of FIG. 7B, the number of partial regions inside the eyebox EB is further increased. There is. Therefore, FIG. 7 (B) has improved detection sensitivity of the viewpoint position as compared with FIG. 7 (A). Specifically, the peripheral region ZB is divided into the first and second peripheral regions ZC and ZB', and the division of the partial region in the first peripheral region ZC is made finer to increase the number of partial regions. Therefore, the detection sensitivity of the viewpoint position in the peripheral region ZB (the region shaded) is improved as compared with the example of FIG. 7 (A).

なお、図7(B)の例は、視点検出の感度が高い中央領域ZAが、四角形の輪郭(輪郭線)Dの範囲まで仮想的に拡大したとみることも可能である。 In the example of FIG. 7B, it can be considered that the central region ZA, which has high sensitivity for viewpoint detection, is virtually expanded to the range of the contour (contour line) D of the quadrangle.

また、図8(A)の例では、四角形の輪郭Dの内部が、すべて細かく分割され、したがって、図7(B)によりも、さらに密な部分領域が形成されている。図8(A)の場合、アイボックスEBにおける中央領域ZA(例えば図7(A)参照)が、その周辺領域の一部の範囲まで拡大したとみなすことができる。 Further, in the example of FIG. 8A, the inside of the contour D of the quadrangle is all finely divided, and therefore, a denser partial region is formed also in FIG. 7B. In the case of FIG. 8A, it can be considered that the central region ZA in the eyebox EB (see, for example, FIG. 7A) has expanded to a part of the peripheral region thereof.

また、図8(B)の例では、アイボックスの全体が細かく区画されて、アイボックス全体の視点位置検出感度が最大限に向上している。図8(A)の場合、アイボックスEBにおける中央領域ZA(例えば図7(A)参照)が、その周辺領域の全範囲まで拡大したとみなすことができる。 Further, in the example of FIG. 8B, the entire eye box is finely divided, and the viewpoint position detection sensitivity of the entire eye box is maximized. In the case of FIG. 8A, it can be considered that the central region ZA in the eyebox EB (see, for example, FIG. 7A) has expanded to the entire range of the peripheral region.

以上説明した第1〜第3の制御は、車両1が、停止状態を含む低速状態であるときに、実施することとしてもよい。言い換えれば、図4の速度検出部182(低速状態判定部としての機能を兼ねる)が、車両1の速度が低速状態であると判定した場合に、制御部(表示制御部180、あるいはワーピング制御部184)は、第1の制御、第2の制御、及び第3の制御の少なくとも1つを実施してもよい。 The first to third controls described above may be performed when the vehicle 1 is in a low speed state including a stopped state. In other words, when the speed detection unit 182 (which also functions as a low speed state determination unit) in FIG. 4 determines that the speed of the vehicle 1 is in a low speed state, the control unit (display control unit 180 or warping control unit 180) 184) may implement at least one of the first control, the second control, and the third control.

車両1が低速状態のときには、運転者は、前方等の視覚の変動に敏感で、その変動を察知し易い。したがって、このときに、上記の制御を実施することによって、ワーピングパラメータの更新の感度を低下させ、画像(虚像)の見え方の変化による違和感の発生を抑制することができる。 When the vehicle 1 is in a low speed state, the driver is sensitive to visual fluctuations such as in front and can easily detect the fluctuations. Therefore, at this time, by performing the above control, it is possible to reduce the sensitivity of updating the warping parameter and suppress the occurrence of a sense of discomfort due to a change in the appearance of the image (virtual image).

次に、図9を参照する。図9は、車速に応じてアイボックスの視点検出感度(視点検出分解能)を変化させる制御における特性例を示す図である。 Next, refer to FIG. FIG. 9 is a diagram showing an example of characteristics in control for changing the viewpoint detection sensitivity (viewpoint detection resolution) of the eyebox according to the vehicle speed.

図9の例では、車両1の速度(車速)がU1〜U2である範囲において、車速に対応させて、アイボックスの視点位置の検出感度を変化させる処理を行う。アイボックスEBは、ヘッドアップディスプレイ装置が動作状態となった初期時点で複数の部分領域に分割され、この状態では、アイボックスEBにおける視点位置の検出感度はN1である。 In the example of FIG. 9, in the range where the speed (vehicle speed) of the vehicle 1 is U1 to U2, a process of changing the detection sensitivity of the viewpoint position of the eye box is performed in correspondence with the vehicle speed. The eyebox EB is divided into a plurality of partial regions at the initial stage when the head-up display device is in the operating state, and in this state, the detection sensitivity of the viewpoint position in the eyebox EB is N1.

制御部(図4の表示制御部180、あるいはワーピング制御部184)は、アイボックスEBの各部分領域を単位として視点の位置を判定すると共に、車両1の速度が速くなることに対応させて、アイボックス全体における部分領域の数を増やすことで、視点位置の検出の分解能を向上させる。車速U2において、アイボックスEBにおける視点位置検出感度はN2まで上昇している。 The control unit (display control unit 180 or warping control unit 184 in FIG. 4) determines the position of the viewpoint in units of each partial region of the eyebox EB, and corresponds to the increase in the speed of the vehicle 1. By increasing the number of subregions in the entire eyebox, the resolution for detecting the viewpoint position is improved. At the vehicle speed U2, the viewpoint position detection sensitivity in the eyebox EB has increased to N2.

また、図9の例では、車速が速くなるにつれてアイボックスEBの部分領域の数を増やすに際し、車両1の速度が速くなるにつれて、アイボックスEBの中央から周辺へと密の部分領域の範囲を広げる制御を実施する。言い換えれば、ワーピングパラメータの更新の感度を抑制する範囲を減少させていく制御を実施する。 Further, in the example of FIG. 9, when increasing the number of the partial regions of the eyebox EB as the vehicle speed increases, the range of the dense partial regions from the center to the periphery of the eyebox EB increases as the speed of the vehicle 1 increases. Implement control to spread. In other words, control is performed to reduce the range in which the sensitivity of updating the warping parameter is suppressed.

車両1の速度が速くなると、運転者が違和感を認識しづらくなることから、よって、上記の違和感に対する対策を施す領域を、速度が速くなるにつれて減少させる。アイボックスEBの周辺領域の視点位置の検出感度は、車速が速くなるにつれて上昇していく。これによって、小さな視点移動に対する表示の歪みをワーピング処理で補正して、視覚性をより重視した表示処理を実施することが可能となる。 As the speed of the vehicle 1 increases, it becomes difficult for the driver to recognize the discomfort. Therefore, the area for taking measures against the discomfort is reduced as the speed increases. The detection sensitivity of the viewpoint position in the peripheral region of the eyebox EB increases as the vehicle speed increases. This makes it possible to correct the distortion of the display due to a small movement of the viewpoint by the warping process and perform the display process with more emphasis on the visual sense.

また、図9の例において、制御部(表示制御部180、あるいはワーピング制御部184)は、車両1の速度が、第1の速度値U1(U1>0)以上で、かつ、第2の速度値よりも大きい第2の速度値U2以下の範囲内にあるときに、車両1の速度が速くなることに対応した視点位置の検出の分解能を向上させる制御を実施し、車両1の速度が、第1の速度値U1未満であるとき(図9の特性線Q1の範囲)、及び第2の速度値U2より大きいとき(図9の特性線Q4の範囲)は、視点位置の検出の分解能を一定に保持させる。 Further, in the example of FIG. 9, in the control unit (display control unit 180 or warping control unit 184), the speed of the vehicle 1 is equal to or higher than the first speed value U1 (U1> 0) and the second speed. When the speed is within the range of the second speed value U2 or less, which is larger than the value, the control for improving the detection resolution of the viewpoint position corresponding to the increase in the speed of the vehicle 1 is performed, and the speed of the vehicle 1 is increased. When it is less than the first velocity value U1 (the range of the characteristic line Q1 of FIG. 9) and when it is larger than the second velocity value U2 (the range of the characteristic line Q4 of FIG. 9), the resolution of detecting the viewpoint position is determined. Keep it constant.

第7の態様では、車両の速度が所定の範囲(車両速度Uについて、U1≦U≦U2が成立する範囲)において、車両の速度が速くなることに対応した視点位置の検出の分解能を向上させる制御を実施する。また、車両速度がU1より小さいとき、及びU2より大きいときにまで上記の制御を適用しようとするとHUD装置(の制御部)の負担が重くなることから、その範囲では制御を実施しないこととし、無理な負担を装置に負わせることがないように配慮している。 In the seventh aspect, the resolution of detecting the viewpoint position corresponding to the increase in the vehicle speed is improved in the predetermined range of the vehicle speed (the range in which U1 ≦ U ≦ U2 is satisfied for the vehicle speed U). Implement control. Further, if the above control is to be applied even when the vehicle speed is smaller than U1 and larger than U2, the burden on the HUD device (control unit) becomes heavy, so the control is not performed within that range. Care is taken not to put an unreasonable burden on the device.

また、車速が速くなるにつれてアイボックスEBの部分領域の数を増やすことの態様としては、図9における特性線Q1、Q2によって示される2つの態様がある。 Further, as a mode of increasing the number of the partial regions of the eyebox EB as the vehicle speed increases, there are two modes shown by the characteristic lines Q1 and Q2 in FIG.

その1つは、車両1の速度が速くなることに対応した視点位置の検出の分解能(検出感度)を向上させる制御を実施するに際し、車速が第1の速度値U1に近い範囲では、分解能の向上の程度を緩やかにし、第1の速度値U1から遠ざかるにつれて、分解能の向上の程度を急峻にする制御(特性線Q2で示される制御)である。 One of them is that when the control for improving the detection resolution (detection sensitivity) of the viewpoint position corresponding to the increase in the speed of the vehicle 1 is performed, the resolution is high in the range where the vehicle speed is close to the first speed value U1. This is a control (control indicated by the characteristic line Q2) in which the degree of improvement is moderated and the degree of improvement in resolution becomes steeper as the distance from the first speed value U1 increases.

他の1つは、車速が第1の速度値U1に近い範囲では、分解能の向上の程度を緩やかにし、第1の速度値U1から遠ざかるにつれて、分解能の向上の程度をより急峻にする制御を実施すると共に、車速が第2の速度値U2に近づくにつれて、分解能の向上の程度を緩やかにする制御(略S字の形状を有する特性線Q3で示される制御)である。 The other is a control in which the degree of improvement in resolution is moderated in the range where the vehicle speed is close to the first speed value U1, and the degree of improvement in resolution becomes steeper as the vehicle speed moves away from the first speed value U1. This is a control (control indicated by a characteristic line Q3 having a substantially S-shaped shape) in which the degree of improvement in resolution is moderated as the vehicle speed approaches the second speed value U2.

言い換えれば、車速の上昇に応じて、アイボックスEBにおける視点位置の検出の分解能(検出感度)を向上させる場合に、運転者が画像(虚像)の視覚的変化を感得しやすい低速状態である(言い換えれば、車速が第1の速度値U1に近い範囲にある)場合には、急なワーピングパラメータの更新が抑制されるように、検出の分解能(検出感度)の上昇の程度を緩やかにする制御(特性線Q2の制御)を実施するか、又は、その制御に加えて、さらに、第2の速度値U2に近づくにつれて、検出の分解能(検出感度)の上昇の程度を緩やかにする制御を実施して、第2の速度値U2に達したときに検出の分解能(検出感度)が飽和して一定になることによって、変化が急に(唐突に)頭打ちになって違和感が生じることを抑制する制御(特性線Q3で示される制御)を実施する。これらの制御によって、虚像の視認性をさらに改善することができる。 In other words, it is a low-speed state in which the driver can easily perceive a visual change in the image (virtual image) when improving the resolution (detection sensitivity) of detecting the viewpoint position in the eyebox EB according to the increase in vehicle speed. (In other words, when the vehicle speed is in the range close to the first speed value U1), the degree of increase in the detection resolution (detection sensitivity) is moderated so as to suppress the sudden update of the warping parameter. Control (control of the characteristic line Q2) is performed, or in addition to the control, control is performed to moderate the degree of increase in the detection resolution (detection sensitivity) as the second velocity value U2 is approached. By implementing this, when the second speed value U2 is reached, the detection resolution (detection sensitivity) is saturated and becomes constant, so that the change suddenly (suddenly) peaks out and suppresses the occurrence of discomfort. Control (control indicated by characteristic line Q3) is performed. With these controls, the visibility of the virtual image can be further improved.

次に、図10を参照する。図10は、第1のワーピング画像補正制御(図5に示される第1の制御)の手順例を示すフローチャートである。 Next, refer to FIG. FIG. 10 is a flowchart showing a procedure example of the first warping image correction control (first control shown in FIG. 5).

視点の位置を監視し(ステップS1)、視点移動の有無を検出する(ステップS2)。ステップS2において、N(無)のときはステップS1に戻り、Y(有)のときは、視点喪失後に視点位置を再検出したか否かを判定する(ステップS3)。 The position of the viewpoint is monitored (step S1), and the presence or absence of movement of the viewpoint is detected (step S2). In step S2, when N (none), the process returns to step S1, and when Y (yes), it is determined whether or not the viewpoint position has been rediscovered after the viewpoint is lost (step S3).

ステップS3にてYのときは、ステップS4に移行し、視点移動は無視し、現在のワーピングパラメータを維持する。ステップS3にてNのときは、ステップS5に移行して、移動前の視点の位置がアイボックスの周辺領域に位置するか否かを検出する。 If it is Y in step S3, the process proceeds to step S4, the viewpoint movement is ignored, and the current warping parameter is maintained. If it is N in step S3, the process proceeds to step S5, and it is detected whether or not the position of the viewpoint before movement is located in the peripheral region of the eye box.

ステップS5にてYのときは、ステップS4に移行し、視点移動は無視し、現在のワーピングパラメータを維持する。ステップS5にてNのときは、ステップS6に移行し、移動後の視点位置に対応したワーピングパラメータを使用して画像補正を行う。ステップS7にて画像補正を終了するか否かを判定し、Yのときは終了し、NのときはステップS1に戻る。 If it is Y in step S5, the process proceeds to step S4, the viewpoint movement is ignored, and the current warping parameter is maintained. If it is N in step S5, the process proceeds to step S6, and image correction is performed using the warping parameter corresponding to the viewpoint position after movement. In step S7, it is determined whether or not to end the image correction. If it is Y, it ends, and if it is N, the process returns to step S1.

次に、図11を参照する。図11は、第2のワーピング画像補正制御(図6に示される第2の制御)の手順例を示すフローチャートである。なお、ここでは、第2の制御のうちの、所定時間経過後に視点が同じ領域に留まっているか否かを判定する処理を含むものについて手順例を示す。 Next, refer to FIG. FIG. 11 is a flowchart showing a procedure example of the second warping image correction control (second control shown in FIG. 6). In addition, here, a procedure example is shown for the second control including the process of determining whether or not the viewpoint stays in the same region after the lapse of a predetermined time.

視点の位置を監視し(ステップS10)、視点移動の有無を検出する(ステップ11)。ステップ11において、N(無)のときはステップS10に戻り、Y(有)のときは、移動後の視点位置の情報を取得する(ステップS12)。 The position of the viewpoint is monitored (step S10), and the presence or absence of movement of the viewpoint is detected (step 11). In step 11, when N (none), the process returns to step S10, and when Y (yes), the information on the viewpoint position after movement is acquired (step S12).

続いて、所定時間τ経過後の視点位置の情報を取得する(ステップS13)。次に、移動前に視点があった領域と移動後の領域との一致/不一致を判定する(ステップS14)。ステップS14にて、Yのときは、ステップS15に移行して、移動後の視点位置(移動後のアイボックスの部分領域)に対応したワーピングパラメータを使用して画像補正を実施する(ステップS15)。ステップS14でNのときは、ステップS16に移行して、視点移動は無視し、現在のワーピングパラメータを維持する。ステップS17にて画像補正を終了するか否かを判定し、Yのときは終了し、NのときはステップS10に戻る。 Subsequently, the information on the viewpoint position after the elapse of the predetermined time τ is acquired (step S13). Next, it is determined whether or not the area where the viewpoint was located before the movement and the area after the movement are matched (step S14). In step S14, if it is Y, the process proceeds to step S15, and image correction is performed using the warping parameters corresponding to the viewpoint position after movement (partial area of the eyebox after movement) (step S15). .. When N in step S14, the process proceeds to step S16, the viewpoint movement is ignored, and the current warping parameter is maintained. In step S17, it is determined whether or not to end the image correction, and if it is Y, it ends, and if it is N, the process returns to step S10.

次に、図12を参照する。図12は、第3のワーピング画像補正制御(図7及び図8に示される第3の制御)の手順例を示すフローチャートである。ここでは、粗密分割方式のアイボックスを使用する場合の手順例を示す。 Next, refer to FIG. FIG. 12 is a flowchart showing a procedure example of the third warping image correction control (third control shown in FIGS. 7 and 8). Here, an example of a procedure when using a coarse / dense division type eyebox is shown.

まず、中央を密に、周辺を粗く分割した粗密分割方式のアイボックス(断続的分割方式のアイボックス)を設定する(ステップS20)。続いて、視点位置を監視し(ステップS21)、次に、視点移動の有無を判定する(ステップS22)。 First, a coarse-dense division type eyebox (intermittent division type eyebox) in which the center is densely divided and the periphery is roughly divided is set (step S20). Subsequently, the viewpoint position is monitored (step S21), and then the presence or absence of viewpoint movement is determined (step S22).

ステップS22にてY(有)のときは、ステップS23に移行して、移動後の視点位置に対応したワーピングパラメータを使用して画像補正を行う。ステップS22にてNの場合は、ステップS21に戻る。ステップS24にて画像補正を終了するか否かを判定し、Yのときは終了し、NのときはステップS21に戻る。 If Y is present in step S22, the process proceeds to step S23, and image correction is performed using the warping parameter corresponding to the viewpoint position after movement. If N in step S22, the process returns to step S21. In step S24, it is determined whether or not to end the image correction, and if it is Y, it ends, and if it is N, the process returns to step S21.

次に、図13を参照する。図13は、第4のワーピング画像補正制御(図9に示される第4の制御)の手順例を示すフローチャートである。 Next, refer to FIG. FIG. 13 is a flowchart showing a procedure example of the fourth warping image correction control (fourth control shown in FIG. 9).

車速を検出し(ステップS20)、続いて、車速に応じて、アイボックス内の部分領域の数や形状等を適応的に変更する(ステップS31)。具体的には、図9における特性線Q1、Q2又はQ3、Q4に応じて、アイボックスの内部の構造を適宜、変更する。次に、視点位置を監視し(ステップS32)、次に、視点移動の有無を判定する(ステップS33)。 The vehicle speed is detected (step S20), and then the number and shape of the partial regions in the eyebox are adaptively changed according to the vehicle speed (step S31). Specifically, the internal structure of the eye box is appropriately changed according to the characteristic lines Q1, Q2 or Q3, Q4 in FIG. Next, the viewpoint position is monitored (step S32), and then the presence or absence of viewpoint movement is determined (step S33).

ステップS33にて、NのときはステップS32に戻り、Yのときは、ステップS34に移行して、移動後の視点位置に対応したワーピングパラメータを使用して画像補正を行う。次に、ステップS35にて画像補正を終了するか否かを判定し、Yのときは終了し、NのときはステップS30に戻る。 In step S33, when N, the process returns to step S32, and when Y, the process proceeds to step S34, and image correction is performed using the warping parameters corresponding to the viewpoint position after movement. Next, it is determined in step S35 whether or not to end the image correction, and if it is Y, it ends, and if it is N, the process returns to step S30.

次に、図14を参照する。図14(A)は、路面重畳HUDによる表示例を示す図、図14(B)は、傾斜面HUDによる表示例を示す図、図14(C)は、HUD装置の主要部の構成例を示す図である。 Next, refer to FIG. FIG. 14 (A) is a diagram showing a display example by the road surface superimposition HUD, FIG. 14 (B) is a diagram showing a display example by the inclined surface HUD, and FIG. 14 (C) is a configuration example of a main part of the HUD device. It is a figure which shows.

図14(A)は、表示部(図4の符号116、又は図14(C)の符号161)の画像表示面(図4の符号117、又は図14(C)の符号163)に対応する仮想的な虚像表示面PSが、車両1の前方の、路面41に重畳するように配置される、路面重畳HUDによる虚像表示例を示す。 14 (A) corresponds to the image display surface (reference numeral 117 of FIG. 4 or reference numeral 163 of FIG. 14 (C)) of the display unit (reference numeral 116 of FIG. 4 or reference numeral 161 of FIG. 14 (C)). An example of virtual image display by a road surface superimposing HUD in which a virtual virtual image display surface PS is arranged so as to overlap the road surface 41 in front of the vehicle 1 is shown.

図14(B)は、虚像表示面PSの車両1に近い側の端部である近端部と路面41との距離が小さく、車両1から遠い側の端部である遠端部と路面41との距離が大きくなるように、虚像表示面PSが路面41に対して斜めに傾いて配置される、傾斜面HUDによる虚像表示例を示す。 In FIG. 14B, the distance between the near end portion of the virtual image display surface PS on the side closer to the vehicle 1 and the road surface 41 is small, and the distance between the far end portion and the road surface 41 on the far side from the vehicle 1 is small. An example of displaying a virtual image by an inclined surface HUD is shown in which the virtual image display surface PS is arranged at an angle with respect to the road surface 41 so that the distance from the virtual image display surface PS becomes large.

これらは、路面41に重畳される広い虚像表示面PS、又は路面41に対して傾斜して設けられる広い虚像表示面PSを用いて、例えば、車両1の前方5m〜100mの範囲で、種々の表示を行うことができるものであり、HUD装置は大型化し、アイボックスEBも大型化して、従来よりも広い範囲で視点位置を高精度に検出して、適切なワーピングパラメータを用いた画像補正を行うことが好ましい。この場合、例えば、視点AがアイボックスEBの周辺にあるとき等において、ワーピングパラメータの頻繁な更新に伴う画像(虚像V)の視認性の低下が生じる場合があり、よって、本発明の制御方式の適用が有効となる。 These are various, for example, in the range of 5 m to 100 m in front of the vehicle 1 by using the wide virtual image display surface PS superimposed on the road surface 41 or the wide virtual image display surface PS provided at an angle with respect to the road surface 41. It is possible to display, the HUD device is enlarged, the eyebox EB is also enlarged, the viewpoint position is detected with high accuracy in a wider range than before, and image correction using appropriate warping parameters is performed. It is preferable to do so. In this case, for example, when the viewpoint A is in the vicinity of the eyebox EB, the visibility of the image (virtual image V) may decrease due to frequent updates of the warping parameters. Therefore, the control method of the present invention may occur. The application of is valid.

次に、図14(C)を参照する。図14(C)のHUD装置107は、制御部171と、投光部151と、画像表示面163を有する表示部としてのスクリーン161と、反射鏡133と、反射面が自由曲面として設計されている曲面ミラー(凹面鏡等)131と、表示部161を駆動するアクチュエータ173と、を有する。 Next, refer to FIG. 14 (C). The HUD device 107 of FIG. 14C is designed with a control unit 171, a light projecting unit 151, a screen 161 as a display unit having an image display surface 163, a reflector 133, and a reflective surface as a free curved surface. It has a curved mirror (concave mirror or the like) 131, and an actuator 173 that drives the display unit 161.

図14(C)の例では、HUD装置107は、運転者の視点Aの高さ位置に応じてアイボックスEBの位置を調整するに際し、表示光をウインドシールド2に投影する光学部材である曲面ミラー131を動かさず(曲面ミラー131用のアクチュエータは設けられていない)、画像の表示光51の、光学部材131における反射位置を変更することで対応する。 In the example of FIG. 14C, the HUD device 107 is a curved surface that is an optical member that projects display light onto the windshield 2 when adjusting the position of the eyebox EB according to the height position of the driver's viewpoint A. This is handled by changing the reflection position of the image display light 51 on the optical member 131 without moving the mirror 131 (the actuator for the curved mirror 131 is not provided).

言い換えれば、運転者の目(視点A)の高さ位置に応じてアイボックスEBの高さ位置を調整する場合に、光を被投影部材2に投影する光学部材131を、例えばアクチュエータを用いて回動させるようなことをせず、その光学部材131における光の反射位置を変更することで対応する。なお、高さ方向とは、図中のY方向(路面41の垂線に沿う方向であり、路面41から離れる方向が正の方向となる)。なお、X方向は、車両1の左右方向、Z方向は車両1の前後方向(あるいは前方方向)である。 In other words, when adjusting the height position of the eyebox EB according to the height position of the driver's eyes (viewpoint A), the optical member 131 that projects light onto the projected member 2 is, for example, using an actuator. This is done by changing the light reflection position on the optical member 131 without rotating it. The height direction is the Y direction in the drawing (the direction along the perpendicular line of the road surface 41, and the direction away from the road surface 41 is the positive direction). The X direction is the left-right direction of the vehicle 1, and the Z direction is the front-rear direction (or the front direction) of the vehicle 1.

近年のHUD装置は、例えば車両の前方のかなり広い範囲にわたって虚像を表示することを前提として開発される傾向があり、この場合、必然的に装置が大型化する。当然、光学部材131も大型化する。この光学部材131をアクチュエータ等を用いて回動等させるとその誤差によって、かえってアイボックスEBの高さ位置の制御の精度が低下することがあり、これを防止するために、光線が光学部材131の反射面で反射する位置を変更することで対応することとしたものである。 Recent HUD devices tend to be developed on the premise of displaying a virtual image over a fairly wide area in front of the vehicle, for example, and in this case, the device is inevitably enlarged. Naturally, the optical member 131 is also increased in size. When the optical member 131 is rotated or the like by using an actuator or the like, the accuracy of controlling the height position of the eyebox EB may be lowered due to the error, and in order to prevent this, the light beam is emitted from the optical member 131. It was decided to deal with this by changing the position of reflection on the reflective surface of.

このような大型の光学部材131では、その反射面を自由曲面として最適設計すること等によって、できるかぎり虚像の歪みが顕在化しないようにするが、しかし、上記のように、例えばアイボックスEBの周辺に運転者の視点Aが位置する場合等には、どうしても歪みが顕在化してしまう場合もある。よって、このようなときに、上記のワーピングパラメータの更新の感度を低下させる等の制御を実施することで、虚像Vの歪みによる見え方の変化による違和感が生じにくくすることができ、上記の制御を有効に活用して虚像Vの視認性を向上させることができる。 In such a large optical member 131, the distortion of the virtual image is prevented from becoming apparent as much as possible by optimally designing the reflecting surface as a free curved surface, but as described above, for example, in the eye box EB. When the driver's viewpoint A is located in the vicinity, distortion may inevitably become apparent. Therefore, in such a case, by performing control such as lowering the sensitivity of updating the warping parameter, it is possible to prevent a sense of discomfort due to a change in appearance due to distortion of the virtual image V, and the above control. Can be effectively utilized to improve the visibility of the virtual image V.

以上説明したように、本発明によれば、運転者の視点位置に応じてワーピングパラメータを更新する視点位置追従ワーピング制御を実施するときに、ワーピングパラメータの更新に伴って画像の見た目が瞬時的に変化して運転者に違和感を生じさせることを、効果的に抑制することができる。 As described above, according to the present invention, when the viewpoint position tracking warping control for updating the warping parameter according to the viewpoint position of the driver is performed, the appearance of the image is instantaneously changed as the warping parameter is updated. It is possible to effectively suppress the change that causes the driver to feel uncomfortable.

本発明は、左右の各眼に同じ画像の表示光を入射させる単眼式、左右の各眼に、視差をもつ画像を入射させる視差式のいずれのHUD装置においても使用可能である。 The present invention can be used in both a monocular type HUD device in which the display light of the same image is incident on each of the left and right eyes, and a parallax type HUD device in which an image having parallax is incident on each of the left and right eyes.

本明細書において、車両という用語は、広義に、乗り物としても解釈し得るものである。また、ナビゲーションに関する用語(例えば標識等)についても、例えば、車両の運行に役立つ広義のナビゲーション情報という観点等も考慮し、広義に解釈するものとする。また、HUD装置には、シミュレータ(例えば、航空機のシミュレータ)として使用されるものも含まれるものとする。 In the present specification, the term vehicle can be broadly interpreted as a vehicle. In addition, terms related to navigation (for example, signs, etc.) shall be interpreted in a broad sense in consideration of, for example, the viewpoint of navigation information in a broad sense useful for vehicle operation. Further, the HUD device shall include one used as a simulator (for example, an aircraft simulator).

本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。 The present invention is not limited to the above-mentioned exemplary embodiments, and those skilled in the art will be able to easily modify the above-mentioned exemplary embodiments to the extent included in the claims. ..

1・・・車両(自車両)、2・・・被投影部材(反射透光部材、ウインドシールド等)、4・・・投影領域、5・・・虚像表示領域、7・・・ステアリングホイール、51・・・表示光、100・・・HUD装置、110・・・視点検出カメラ110、112・・・光源、114・・・投光部、116・・・表示部、117・・・表示面(画像表示面)、118・・・投射光学系、120・・・視点位置検出部(視点位置判定部)、122・・・視点座標検出部、124・・・アイボックス内の部分領域検出部、130・・・操作部、131・・・曲面ミラー(凹面鏡等)、133・・・反射鏡(反射ミラー、補正鏡等を含む)、140・・・車両ECU、150・・・バス、151・・・光源部、161・・・表示部(スクリーン等)、63・・・表示面(画像表示面)、170・・・バスインターフェース、171・・・制御部、173・・・表示部を駆動するアクチュエータ、180・・・表示制御部、182・・・速度検出部、184・・・ワーピング制御部、185・・・ワーピング管理部、186・・・周辺視点検出部、188・・・アイボックスの部分領域情報の一時蓄積部、200・・・画像生成部、210・・・ROM、220・・・VRAM、212・・・画像変換テーブル、222・・・画像(原画像)データ、224・・・ワーピング処理後の画像データ、EB・・・アイボックス、Z(Z1〜Z9等)・・・アイボックスの部分領域、WP・・・ワーピングパラメータ、PS・・・虚像表示面、V・・・虚像、ZA・・・アイボックスの中央部(中央領域、メイン領域)。ZB・・・アイボックスの周辺部(周辺領域、周囲領域)。 1 ... Vehicle (own vehicle), 2 ... Projected member (reflected translucent member, windshield, etc.), 4 ... Projected area, 5 ... Virtual image display area, 7 ... Steering wheel, 51 ... Display light, 100 ... HUD device, 110 ... Viewpoint detection camera 110, 112 ... Light source, 114 ... Floodlight, 116 ... Display, 117 ... Display surface (Image display surface), 118 ... Projection optical system, 120 ... Viewpoint position detection unit (viewpoint position determination unit), 122 ... Viewpoint coordinate detection unit, 124 ... Partial area detection unit in eyebox , 130 ... Operation unit, 131 ... Curved mirror (concave mirror, etc.) 133 ... Reflector (including reflection mirror, correction mirror, etc.), 140 ... Vehicle ECU, 150 ... Bus, 151 ... Light source unit, 161 ... Display unit (screen, etc.), 63 ... Display surface (image display surface), 170 ... Bus interface, 171 ... Control unit, 173 ... Display unit Driving actuator, 180 ... Display control unit, 182 ... Speed detection unit, 184 ... Warping control unit, 185 ... Warping management unit, 186 ... Peripheral viewpoint detection unit, 188 ... Eye Temporary storage unit for partial area information of the box, 200 ... image generation unit, 210 ... ROM, 220 ... VRAM, 212 ... image conversion table, 222 ... image (original image) data, 224 ... Image data after warping processing, EB ... Eye box, Z (Z1 to Z9, etc.) ... Partial area of eye box, WP ... Warping parameter, PS ... Virtual image display surface, V.・ ・ Virtual image, ZA ・ ・ ・ Central part of eye box (central area, main area). ZB: Peripheral part of eye box (peripheral area, peripheral area).

Claims (10)

車両に搭載され、画像を、前記車両に備わる被投影部材に投影することで、運転者に前記画像の虚像を視認させるヘッドアップディスプレイ(HUD)装置であって、
前記画像を生成する画像生成部と、
前記画像を表示する表示部と、
前記画像の表示光を反射して、前記被投影部材に投影する光学部材を含む光学系と、
アイボックスにおける運転者の視点位置に応じてワーピングパラメータを更新し、そのワーピングパラメータを用いて前記表示部に表示する画像を、前記画像の虚像の歪み特性とは逆の特性をもつように予め歪ませる視点位置追従ワーピング制御を実施する制御部と、
を有し、
前記制御部は、
前記運転者の左右の視点の少なくとも一方が所定領域に位置するときは、前記視点が移動しても移動前のワーピングパラメータを更新せずに維持する第1の制御、
及び、
視点位置入力に対する、前記表示部において表示される画像へのワーピングパラメータの反映を鈍らせる第2の制御、
及び、
前記運転者の視点の移動に対して断続的に前記ワーピングパラメータを更新する第3の制御、
の少なくとも1つを実施することを特徴とするヘッドアップディスプレイ装置。
A head-up display (HUD) device that is mounted on a vehicle and projects an image onto a projected member provided on the vehicle so that the driver can visually recognize a virtual image of the image.
An image generator that generates the image and
A display unit that displays the image and
An optical system including an optical member that reflects the display light of the image and projects it onto the projected member.
The warping parameter is updated according to the viewpoint position of the driver in the eye box, and the image displayed on the display unit using the warping parameter is pre-distorted so as to have a characteristic opposite to the distortion characteristic of the virtual image of the image. A control unit that performs warping control following the viewpoint position
Have,
The control unit
When at least one of the driver's left and right viewpoints is located in a predetermined area, the first control that maintains the warping parameter before the movement without updating even if the viewpoint moves.
as well as,
A second control that slows down the reflection of the warping parameter on the image displayed on the display unit with respect to the viewpoint position input.
as well as,
A third control that intermittently updates the warping parameter with respect to the movement of the driver's viewpoint.
A head-up display device comprising performing at least one of the above.
前記制御部は、前記第1の制御を行うに際し、
前記アイボックスの内部を中央領域と周辺領域に区別し、前記視点が前記周辺領域に位置しているときに前記視点の移動があっても、前記ワーピングパラメータを更新せずに維持することを特徴とする、請求項1に記載のヘッドアップディスプレイ装置。
The control unit receives the first control when performing the first control.
The feature is that the inside of the eye box is divided into a central region and a peripheral region, and the warping parameter is maintained without being updated even if the viewpoint moves when the viewpoint is located in the peripheral region. The head-up display device according to claim 1.
前記制御部は、前記第2の制御を行うに際し、
前記視点が第1の位置から第2の位置に移動したとき、前記第2の位置への移動が検出された時点から所定時間だけ、前記表示部において表示される画像へのワーピングパラメータの反映を遅延させる第1の処理を実施する、
又は、
前記第1の処理を実施し、かつ、前記所定時間が経過したときに、前記視点が前記第2の位置にとどまっているときに、前記第2の位置に対応するワーピングパラメータを前記表示される画像に反映させる第2の処理を実施し、
又は、
前記アイボックスの内部を中央領域と周辺領域に区別し、前記視点が前記周辺領域にあるときのみ、前記第1の処理又は前記第2の処理を実施する、
ことを特徴とする請求項1に記載のヘッドアップディスプレイ装置。
The control unit receives the second control when performing the second control.
When the viewpoint moves from the first position to the second position, the warping parameter is reflected on the image displayed on the display unit for a predetermined time from the time when the movement to the second position is detected. Perform the first process to delay,
Or
When the first process is performed and the predetermined time elapses and the viewpoint remains at the second position, the warping parameter corresponding to the second position is displayed. Perform the second process to reflect in the image,
Or
The inside of the eye box is divided into a central region and a peripheral region, and the first process or the second process is performed only when the viewpoint is in the peripheral region.
The head-up display device according to claim 1.
前記制御部は、前記第3の制御を行うに際し、
前記視点が現在の位置から所定方向に所定距離だけ移動したときに、前記現在の位置とは異なる他の位置に移動したとみなして前記ワーピングパラメータを前記他の位置に対応するワーピングパラメータに更新するが、
前記視点が前記他の位置から前記所定方向に前記所定距離だけ移動し、前記視点が前記他の位置とは異なる別の位置に移っても、前記別の位置に対応するワーピングパラメータへの更新は実施しない、
又は、
前記アイボックスとして、中央を密に分割し、周辺を粗く分割した粗密分割方式のアイボックスを採用し、各部分領域を単位として前記視点の位置を判定して、前記視点追従ワーピング制御を実施する、
ことを特徴とする、請求項1に記載のヘッドアップディスプレイ装置。
The control unit receives the third control when performing the third control.
When the viewpoint moves in a predetermined direction from the current position by a predetermined distance, it is considered that the viewpoint has moved to another position different from the current position, and the warping parameter is updated to the warping parameter corresponding to the other position. But,
Even if the viewpoint moves from the other position in the predetermined direction by the predetermined distance and the viewpoint moves to another position different from the other position, the update to the warping parameter corresponding to the other position is performed. Do not carry out
Or
As the eye box, an eye box of a coarse / dense division method in which the center is densely divided and the periphery is roughly divided is adopted, the position of the viewpoint is determined in units of each partial region, and the viewpoint tracking warping control is performed. ,
The head-up display device according to claim 1, wherein the head-up display device is characterized in that.
前記車両の速度が低速状態か否かを判断する低速状態判定部と、をさらに有し、
前記制御部は、前記車両が、停止状態を含む前記低速状態であるときに、前記第1の制御、前記第2の制御、及び前記第3の制御の少なくとも1つを実施する、ことを特徴とする請求項1乃至4の何れか1項に記載のヘッドアップディスプレイ装置。
Further, it has a low-speed state determination unit for determining whether or not the speed of the vehicle is a low-speed state.
The control unit is characterized in that when the vehicle is in the low speed state including a stopped state, at least one of the first control, the second control, and the third control is performed. The head-up display device according to any one of claims 1 to 4.
前記アイボックスは、前記ヘッドアップディスプレイ装置が動作状態となった初期時点で複数の部分領域に分割されており、
前記制御部は、
前記アイボックスの各部分領域を単位として前記視点の位置を判定すると共に、
前記車両の速度が速くなることに対応させて、前記アイボックス全体における前記部分領域の数を増やすことで、前記視点位置の検出の分解能を向上させると共に、前記部分領域の数を増やすに際し、前記車両の速度が速くなるにつれて、前記アイボックスの中央から周辺へと密の部分領域の範囲を広げる、
ことを特徴とする請求項1乃至4の何れか1項に記載のヘッドアップディスプレイ装置。
The eye box is divided into a plurality of partial regions at the initial stage when the head-up display device is in an operating state.
The control unit
The position of the viewpoint is determined using each partial region of the eye box as a unit, and the position of the viewpoint is determined.
By increasing the number of the partial regions in the entire eye box in response to the increase in the speed of the vehicle, the resolution of detecting the viewpoint position is improved, and in increasing the number of the partial regions, the said As the speed of the vehicle increases, the range of the dense subregion extends from the center to the periphery of the eyebox.
The head-up display device according to any one of claims 1 to 4.
前記制御部は、前記車両の速度が、第1の速度値U1(U1>0)以上で、かつ、前記第2の速度値よりも大きい第2の速度値U2以下の範囲内にあるときに、前記車両の速度が速くなることに対応した前記視点位置の検出の分解能を向上させる制御を実施し、前記車両の速度が、前記第1の速度値未満であるとき、及び前記第2の速度値より大きいときは、前記視点位置の検出の分解能を一定に保持させる、ことを特徴とする請求項6に記載にヘッドアップディスプレイ装置。 When the speed of the vehicle is within the range of the first speed value U1 (U1> 0) or more and the second speed value U2 or less, which is larger than the second speed value, the control unit is used. When the speed of the vehicle is less than the first speed value, and when the speed of the vehicle is less than the first speed value, the control for improving the detection resolution of the viewpoint position corresponding to the increase in the speed of the vehicle is performed. The head-up display device according to claim 6, wherein when the value is larger than the value, the resolution of detecting the viewpoint position is kept constant. 前記車両の速度が速くなることに対応した前記視点位置の検出の分解能を向上させる制御を実施するに際し、
車速が前記第1の速度値に近い範囲では、分解能の向上の程度を緩やかにし、前記第1の速度値から遠ざかるにつれて、前記分解能の向上の程度を急峻にする制御を実施する、
又は、
車速が前記第1の速度値に近い範囲では、分解能の向上の程度を緩やかにし、前記第1の速度値から遠ざかるにつれて、前記分解能の向上の程度をより急峻にする制御を実施すると共に、車速が前記第2の速度値に近づくにつれて、前記分解能の向上の程度を緩やかにする制御を実施する、
ことを特徴とする、請求項7に記載のヘッドアップディスプレイ装置。
In carrying out the control for improving the resolution of the detection of the viewpoint position corresponding to the increase in the speed of the vehicle.
In the range where the vehicle speed is close to the first speed value, the degree of improvement in resolution is moderated, and as the vehicle speed moves away from the first speed value, the degree of improvement in resolution is steepened.
Or
In the range where the vehicle speed is close to the first speed value, the degree of improvement in resolution is moderated, and as the distance from the first speed value increases, the degree of improvement in resolution is controlled to be steeper, and the vehicle speed is controlled. Controls to slow down the degree of improvement in the resolution as the speed approaches the second speed value.
The head-up display device according to claim 7, wherein the head-up display device is characterized in that.
前記ヘッドアップディスプレイ装置は、
前記運転者の前記視点の高さ位置に応じて前記アイボックスの位置を調整するに際し、前記光学部材を動かさず、前記画像の表示光の、前記光学部材における反射位置を変更する、ことを特徴とする請求項1乃至8の何れか1項に記載のヘッドアップディスプレイ装置。
The head-up display device is
When adjusting the position of the eye box according to the height position of the viewpoint of the driver, the optical member is not moved, and the reflection position of the display light of the image on the optical member is changed. The head-up display device according to any one of claims 1 to 8.
前記表示部の画像表示面に対応する仮想的な虚像表示面が、前記車両の前方の、路面に重畳するように配置される、
又は、
前記虚像表示面の前記車両に近い側の端部である近端部と前記路面との距離が小さく、前記車両から遠い側の端部である遠端部と前記路面との距離が大きくなるように、前記路面に対して斜めに傾いて配置される、
ことを特徴とする請求項1乃至9の何れか1項に記載のヘッドアップディスプレイ装置。
A virtual virtual image display surface corresponding to the image display surface of the display unit is arranged so as to overlap the road surface in front of the vehicle.
Or
The distance between the near end portion of the virtual image display surface on the side closer to the vehicle and the road surface is small, and the distance between the far end portion on the far side from the vehicle and the road surface is large. Is arranged at an angle to the road surface.
The head-up display device according to any one of claims 1 to 9.
JP2019235287A 2019-12-25 2019-12-25 Head-up display device Pending JP2021103274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019235287A JP2021103274A (en) 2019-12-25 2019-12-25 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235287A JP2021103274A (en) 2019-12-25 2019-12-25 Head-up display device

Publications (1)

Publication Number Publication Date
JP2021103274A true JP2021103274A (en) 2021-07-15

Family

ID=76755090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235287A Pending JP2021103274A (en) 2019-12-25 2019-12-25 Head-up display device

Country Status (1)

Country Link
JP (1) JP2021103274A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171550A1 (en) * 2022-03-07 2023-09-14 矢崎総業株式会社 Vehicular display device
WO2023243297A1 (en) * 2022-06-14 2023-12-21 矢崎総業株式会社 Vehicle display apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171550A1 (en) * 2022-03-07 2023-09-14 矢崎総業株式会社 Vehicular display device
WO2023243297A1 (en) * 2022-06-14 2023-12-21 矢崎総業株式会社 Vehicle display apparatus

Similar Documents

Publication Publication Date Title
JP6554175B2 (en) Head-up display device
JP5222597B2 (en) Image processing apparatus and method, driving support system, and vehicle
US20160266390A1 (en) Head-up display and control method thereof
CN109791283B (en) Projection optical system and head-up display device
JP2014199385A (en) Display device and display method thereof
JP2004226469A (en) Head-up display device for vehicle
JP2008143512A (en) Windshield and head-up display unit
JP2021103274A (en) Head-up display device
KR20200042754A (en) Method for correction image distortion of hud system
JP7126115B2 (en) DISPLAY SYSTEM, MOVING OBJECT AND DESIGN METHOD
JP7310817B2 (en) head-up display device
JP2018103697A (en) Display device for vehicle
KR20170126554A (en) Display device and luminance correction method of the same
CN207752232U (en) Windscreen formula head-up display device
JP2022036432A (en) Head-up display device, display control device, and method for controlling head-up display device
JP7223283B2 (en) IMAGE PROCESSING UNIT AND HEAD-UP DISPLAY DEVICE INCLUDING THE SAME
WO2021065699A1 (en) Display control device and head-up display device
CN207216150U (en) HUD and means of transport
JP2019161346A (en) Head-up display device and display image correction method
WO2021132090A1 (en) Display control device and head-up display device
JP7288472B2 (en) vehicle display
JP2019169828A (en) On-vehicle display control unit and on-vehicle display control method
JP7375753B2 (en) heads up display device
JP2019083385A (en) Head-up display unit
JP7494646B2 (en) Head-up display device, display control device, and control method for head-up display device