JP7354846B2 - heads up display device - Google Patents

heads up display device Download PDF

Info

Publication number
JP7354846B2
JP7354846B2 JP2020004625A JP2020004625A JP7354846B2 JP 7354846 B2 JP7354846 B2 JP 7354846B2 JP 2020004625 A JP2020004625 A JP 2020004625A JP 2020004625 A JP2020004625 A JP 2020004625A JP 7354846 B2 JP7354846 B2 JP 7354846B2
Authority
JP
Japan
Prior art keywords
display
virtual image
image
driver
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020004625A
Other languages
Japanese (ja)
Other versions
JP2021110904A (en
Inventor
毅 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020004625A priority Critical patent/JP7354846B2/en
Publication of JP2021110904A publication Critical patent/JP2021110904A/en
Application granted granted Critical
Publication of JP7354846B2 publication Critical patent/JP7354846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両のウインドシールドやコンバイナ等に虚像を表示するヘッドアップディスプレイ(Head-up Display:HUD)装置等に関する。 The present invention relates to a head-up display (HUD) device and the like that displays a virtual image on a vehicle windshield, combiner, etc.

特許文献1には、画像のレンダリングを行い、3D表示と2D表示とを使い分けるHUD装置(3DのHUD装置)が記載されている。また、特許文献2には、路面に対して傾斜した虚像表示面に虚像を表示するHUD装置が記載されている。 Patent Document 1 describes a HUD device (3D HUD device) that performs image rendering and selectively uses 3D display and 2D display. Further, Patent Document 2 describes a HUD device that displays a virtual image on a virtual image display surface that is inclined with respect to the road surface.

特開2019-62532号公報JP2019-62532A 特開2018-120135号公報JP 2018-120135 Publication

本発明者は、以下に記載する新たな課題を認識した。3DのHUD装置では、ユーザーの両目用の視差画像に基づく虚像を表示することで、立体視の虚像(立体虚像)による鮮明な表示を行うことができる。一方、例えば、実景(ウインドシールドであるフロントガラス越しに見える風景等)のうち、遠方にあるものは視覚的にぼやけて見えている(言い換えれば、ピンボケして見えている)。 The inventors have recognized the new problem described below. A 3D HUD device can display a clear stereoscopic virtual image (stereoscopic virtual image) by displaying a virtual image based on parallax images for both eyes of the user. On the other hand, for example, among real scenes (such as scenery seen through a windshield), things that are far away appear visually blurred (in other words, they appear out of focus).

したがって、HUD装置が表示する虚像が、実際の風景よりも鮮明にユーザーに視認されることがある。このような状態が長く続けば、ユーザーに、例えば視覚的な疲労感を与える場合があることは否定できない。 Therefore, the virtual image displayed by the HUD device may be viewed by the user more clearly than the actual scenery. It cannot be denied that if this state continues for a long time, it may give the user a feeling of visual fatigue, for example.

本発明は、運転者の目の疲労を軽減することが可能なHUD装置を提供することを目的とする。 An object of the present invention is to provide a HUD device that can reduce eye fatigue of a driver.

本発明の他の目的は、以下に例示する態様及び最良の実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。 Other objects of the invention will become apparent to those skilled in the art upon reference to the following illustrative aspects and best embodiment, and the accompanying drawings.

以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。 Below, embodiments according to the present invention will be illustrated in order to easily understand the outline of the present invention.

第1の態様において、ヘッドアップディスプレイ装置は、
車両に搭載され、画像を、前記車両に備わる被投影部材に投影することで、運転者に前記画像の虚像を視認させるヘッドアップディスプレイ(HUD)装置であって、
左目用/右目用の各画像を表示する表示面を備える表示部と、
前記表示部に接触して、又は近接して配置され、前記左目用/右目用の各画像の各光線を分離する光線分離機能をもつ光学部材と、
前記画像の表示光を反射して、前記被投影部材に投影する光学部材を含む光学系と、
前記表示部の画像表示を制御する表示制御部と、
を有し、
前記表示部の前記表示面は、前記光外系の光軸に対して傾斜して配置され、
前記表示面と光学的共役である虚像表示面は、前記運転者に遠い側の端部である遠端部と路面との距離が、前記運転者に近い側の端部である近端部と前記路面との距離よりも大きくなるように、前記路面に対して傾斜して配置される平面又は曲面、又は、前記路面に重畳されるように配置される平面又は曲面であり、
前記左目用/右目用の各画像に基づいて得られる立体画像としての視差画像と光学的共役である結像面は、前記虚像表示面よりも前記運転者から見て手前側にあり、かつ、手前側の端が前記虚像表示面の前記近端部に一致あるいは略一致し、奥側の端が前記虚像表示面の前記遠端部とは離れている平面又は曲面であり、
前記表示制御部は、
前記表示面に前記左目用/右目用の各画像を表示させるとき、前記視差画像が、前記結像面に結像されることを想定した表示制御を実施する。
In a first aspect, the head-up display device includes:
A head-up display (HUD) device that is mounted on a vehicle and projects an image onto a projection member provided in the vehicle to allow a driver to visually recognize a virtual image of the image,
a display unit including a display surface that displays images for the left eye and for the right eye;
an optical member that is disposed in contact with or in close proximity to the display section and has a light beam separation function that separates each light beam of each image for the left eye/right eye;
an optical system including an optical member that reflects display light of the image and projects it onto the projection target member;
a display control unit that controls image display on the display unit;
has
The display surface of the display unit is arranged obliquely with respect to the optical axis of the extraoptical system,
The virtual image display surface, which is optically conjugate with the display surface, has a distance between the far end, which is the end farthest from the driver, and the road surface, and the near end, which is the end near the driver. A plane or curved surface arranged at an angle with respect to the road surface so as to be larger than a distance from the road surface, or a plane or curved surface arranged so as to be superimposed on the road surface,
An imaging plane that is optically conjugate with a parallax image as a stereoscopic image obtained based on the left-eye/right-eye images is located closer to the driver than the virtual image display plane, and a flat or curved surface whose front end coincides with or substantially coincides with the near end of the virtual image display surface, and whose rear end is separated from the far end of the virtual image display surface;
The display control section includes:
When displaying the left-eye/right-eye images on the display surface, display control is performed assuming that the parallax image is formed on the image formation surface.

第1の態様では、表示部の表示面がHUD装置の光学系に対して傾斜して配置され、これによって、表示面と光学的共役である虚像表示面は、運転者の前方(車両の進行方向、又は奥行き方向)において、路面に対して、手前側よりも奥側が路面からより離れるように傾斜して配置される平面又は曲面となる。 In the first aspect, the display surface of the display unit is arranged to be inclined with respect to the optical system of the HUD device, so that the virtual image display surface that is optically conjugate with the display surface is in front of the driver (as the vehicle progresses). This is a flat or curved surface that is inclined with respect to the road surface so that the back side is further away from the road surface than the front side.

また、表示面には左目用/右目用の各画像が同時に表示され、各画像の表示光が同時に生じる。このことは、立体像としての視差画像から各表示光が生じているとも考えられ、言い換えれば、左右の各画像を対応づけることで視差画像が復元されているとみることができる(但し、実際には、各表示光が再現され、各々が分離されて個別に進行して結像しない。よって、そのような視差画像は感得できないものである)。 In addition, left-eye and right-eye images are simultaneously displayed on the display surface, and display light for each image is generated simultaneously. This can be considered to mean that each display light is generated from the parallax image as a 3D image.In other words, it can be seen that the parallax image is restored by associating the left and right images (however, in reality, (In this case, each display light is reproduced, and each display light is separated and does not proceed individually and form an image. Therefore, such a parallax image cannot be perceived.)

本来(従来)は、その視差画像は、虚像として、上記の虚像表示面上に結像するのであるが、本発明では、その視差画像を、虚像表示面よりも、運転者から見て手前に位置する面(結像面)に結像させる。言い換えれば、虚像表示面とは異なる、視差画像と光学的共役である結像面が想定され得る。HUD装置の光学系は、視差画像を結像面に結像させるように設計され、また、表示面には、視差画像が結像面に結像されることを想定して、表示内容を描画した画像(左目用/右目用の各画像)が表示される。 Originally (conventionally), the parallax image is formed as a virtual image on the virtual image display surface, but in the present invention, the parallax image is placed closer to the driver as seen from the virtual image display surface. The image is formed on the plane where the object is located (imaging plane). In other words, an imaging plane that is optically conjugate with the parallax image and different from the virtual image display plane can be assumed. The optical system of the HUD device is designed to form a parallax image on the imaging plane, and display contents are drawn on the display surface assuming that the parallax image will be imaged on the imaging plane. The images (left eye/right eye images) will be displayed.

ここで、結像面(仮想的な面)は、手前側の端(端部)が、虚像表示面の近端部(運転者に近い側の端部)と一致又は略一致するが、奥側の端(端部)が、虚像表示面の遠端部(運転者から遠い側の端部)から(手前側に)離れるように配置される平面又は曲面である。 Here, the near end (end) of the imaging surface (virtual surface) coincides with or almost coincides with the near end (end near the driver) of the virtual image display surface, but The virtual image display surface is a flat or curved surface whose side end (end) is placed away (toward the near side) from the far end (the end farthest from the driver) of the virtual image display surface.

運転者(HUD装置のユーザー)が、両目で視差画像を知覚した場合、左目と右目との輻輳角によって定まる各視線が、虚像表示面ではなく、結像面(言い換えれば、結像して鮮明度が高いと感じられる、視差画像と光学的共役である仮想的な虚像)に向くことになる。 When a driver (user of a HUD device) perceives a parallax image with both eyes, each line of sight determined by the convergence angle between the left and right eyes is not directed to the virtual image display surface, but to the image formation surface (in other words, the image is formed and clearly This results in a virtual virtual image that is optically conjugate with the parallax image, which is felt to have a high degree of accuracy.

これによって、結像面の位置に、左目/右目の各焦点が合うように調節されてしまう。言い換えれば、人の知覚は、焦点を結像面に合わせようとする。 As a result, the focus of the left and right eyes is adjusted to the position of the imaging plane. In other words, human perception tends to focus on the imaging plane.

しかし、左目、右目の各々に向かう光は、表示部の表示面と光学的共役関係にある虚像表示面から発せられている。言い換えれば、実際に光を発しているのは表示部の表示面であり、よって、表示面と光学的共役である虚像表示面から、人の目へと光がくることになる。このため、結像面に焦点を合わせてしまった左目、右目にとっては、結像面の奥にある虚像表示面に虚像を見てしまうのであり、この結果、焦点が合っていないボケた虚像を視認する(知覚する)ということになる。 However, the light directed toward each of the left and right eyes is emitted from a virtual image display surface that is optically conjugate with the display surface of the display section. In other words, it is the display surface of the display section that actually emits light, and therefore, light comes to the human eye from the virtual image display surface that is optically conjugate with the display surface. For this reason, the left and right eyes, which have focused on the image plane, see the virtual image on the virtual image display plane located behind the image plane, and as a result, they see a blurred virtual image that is out of focus. It means to visually recognize (perceive).

運転者に近い側は、虚像表示面と結像面との間隔は大きくはない。運転者から遠ざかるほど、各面の間隔は大きくなっていく。したがって、運転者から遠くなるほど、虚像表示面上に知覚される虚像のボケ(ぼかし)の程度は大きくなる。よって、表示される像(虚像)は、周囲の背景画像と同様の、自然なぼかしが入った像となる。したがって、運転者の違和感が低減され、目の疲労も軽減されることになる。 On the side closer to the driver, the distance between the virtual image display surface and the image formation surface is not large. The distance between each surface increases as the distance from the driver increases. Therefore, the further away from the driver, the greater the degree of blurring of the virtual image perceived on the virtual image display surface. Therefore, the displayed image (virtual image) is a naturally blurred image similar to the surrounding background image. Therefore, the driver's discomfort is reduced, and eye fatigue is also reduced.

第1の態様に従属する第2の態様において、
前記虚像表示面における前記近端部側に位置する第1の領域のぼかしの程度に対して、前記第1の領域よりも前記遠端部側に位置する第2の領域のぼかしの程度の方が大きいようにしてもよい。
In a second aspect subordinate to the first aspect,
The degree of blur in a second region located closer to the far end than the first region is greater than the degree of blur in the first region located closer to the near end on the virtual image display surface. may be set to be large.

第2の態様によれば、例えば、第1の領域/第2の領域を区別して、各領域に、ぼけの程度が異なる虚像を表示させることで、虚像表示面上の表示位置に応じた、適切なボケの入った画像(虚像)の表示が可能となる。 According to the second aspect, for example, by distinguishing the first area/second area and displaying virtual images with different degrees of blur in each area, It becomes possible to display an image (virtual image) with appropriate blur.

第1又は第2の態様に従属する第3の態様において、
前記虚像表示面に表示される虚像と、前記運転者の視点、又は前記車両の所定の基準点との間の距離である虚像表示距離の増大に伴い、前記虚像におけるぼかしの程度も増大するようにしてもよい。
In a third aspect dependent on the first or second aspect,
As the virtual image display distance, which is the distance between the virtual image displayed on the virtual image display surface and the driver's viewpoint or a predetermined reference point of the vehicle, increases, the degree of blur in the virtual image also increases. You may also do so.

第3の態様によれば、例えば、車両の進行方向(奥行方向)に傾斜している(あるいは路面に重畳している)虚像表示面上に、近端部から遠端部に向かって、長く延在するような画像(虚像)を表示するとき、虚像表示距離に応じて、ぼかしの程度を変化させていくことができ、自然で、違和感のない表示を実現できる。よって、見やすく、目の疲労も少ない表示を容易に実現することができる。 According to the third aspect, for example, on the virtual image display surface that is inclined in the traveling direction (depth direction) of the vehicle (or superimposed on the road surface), a long image is displayed from the near end toward the far end. When displaying an extending image (virtual image), the degree of blurring can be changed depending on the virtual image display distance, and a natural and natural display can be realized. Therefore, it is possible to easily realize a display that is easy to see and causes less eye fatigue.

第2又は第3の態様に従属する第4の態様において、
前記表示制御部は、前記虚像表示面におけるぼかしの程度が少ない領域に、前記運転者に情報を正確に伝えることが重視される表示対象についての虚像を表示させ、
ぼかしの程度が多い領域に、前記運転者に違和感のない視覚を与えることが重視される表示対象についての虚像を表示させてもよい。
In a fourth aspect that is dependent on the second or third aspect,
The display control unit displays a virtual image of a display target for which it is important to accurately convey information to the driver in an area with a low degree of blur on the virtual image display surface,
A virtual image of a display target for which it is important to provide the driver with a comfortable vision may be displayed in an area where the degree of blur is high.

正確な情報が必要とされる画像としては、例えば、車両の情報、車両の周囲の情報、及びナビゲーション情報等を示す、文字やアイコン等をあげることができる。具体的には、車速表示、道路の制限速度情報、ターンバイターン情報(例えば、交差点名称情報、POI(地図上の特定地点)情報等)を例示することができる。これらは、表示の正確性、あるいは素早い認知性等が要求され、また、車速表示等は常時表示されることも多いことから、ユーザーの手前側に、焦点の合った虚像にて見易く表示するのがよい。 Images that require accurate information include, for example, characters, icons, etc. that indicate information about the vehicle, information about the surroundings of the vehicle, navigation information, and the like. Specifically, vehicle speed display, road speed limit information, turn-by-turn information (for example, intersection name information, POI (specific point on a map) information, etc.) can be exemplified. These require display accuracy or quick recognition, and since vehicle speed displays are often displayed all the time, it is important to display a focused virtual image in front of the user for easy viewing. Good.

自然なぼかしの視覚性が重視される画像としては、例えば、遠くに位置する標識や看板等の画像をあげることができる。その標識や看板は、周囲の実景のぼかしの程度に整合したボケの入ったものであるのが好ましい。また、ルートガイドとしての矢印情報、凍結している路面領域を示す着色された図形情報、ユーザーである運転者のハンドルや機器の操作等を支援するADAS(先進運転支援システム)の情報等も、場合にもよるが、一般には、奥行き感があり、適度にピンぼけもしているような表示を行うのが好ましい。 An example of an image in which the visibility of natural blur is important is an image of a sign or signboard located far away. Preferably, the sign or signboard has a blur that matches the degree of blur in the surrounding actual scene. In addition, information such as arrow information as a route guide, colored graphic information indicating frozen road surface areas, and ADAS (Advanced Driving Assistance System) information that assists the user, the driver, in operating the steering wheel and equipment, etc. Although it depends on the case, it is generally preferable to display a display that gives a sense of depth and is moderately out of focus.

第1乃至第4の何れか1つの態様に従属する第5の態様において、
前記表示制御部は、前記虚像表示面上で、表示している虚像が時間経過と共に前記車両に近づくように移動させる表示制御を実行してもよい。
In a fifth aspect subordinate to any one of the first to fourth aspects,
The display control unit may perform display control on the virtual image display surface such that the displayed virtual image moves closer to the vehicle as time passes.

第5の態様では、虚像が、時間経過と共に、自車両に近づくように表示制御がなされるとき、虚像の位置に応じて、自動的に、ぼかし量(ピンぼけ量)が適正に調整されることから、違和感のない、ダイナミックな表示を容易に実現することができる。言い換えれば、虚像の遠近にかかわらず、鮮明度が一律であると、ユーザーは不自然に感じることがある。本態様によれば、虚像の移動に応じた自然なぼかしが生じることから、視認性が低下しない。なお、本態様の移動表示制御がなされる態様としては、例えば、車両の進行に合わせて、ナビゲーション用の各種表示を路面上で移動させる場合や、制限速度を示す標識等を、遠方から近方へと移動させる場合があげられる。 In the fifth aspect, when display control is performed so that the virtual image approaches the own vehicle over time, the amount of blur (out of focus) is automatically adjusted appropriately according to the position of the virtual image. Therefore, it is possible to easily realize a dynamic display that does not give any sense of discomfort. In other words, if the sharpness of the virtual image is uniform regardless of its distance, it may feel unnatural to the user. According to this aspect, natural blurring occurs according to the movement of the virtual image, so visibility does not deteriorate. The movement display control of this aspect may be performed, for example, when various displays for navigation are moved on the road surface in accordance with the progress of the vehicle, or when a sign indicating a speed limit is moved from a distance to a nearby place. There are cases where it is moved to .

第1乃至第5の何れか1つの態様に従属する第6の態様において、
前記表示制御部は、前記虚像表示面における前記ぼかしの程度が多い領域に表示される虚像が、緊急度又は重要度が通常よりも高いと判定される虚像であるときは、ぼかしの程度を低減する表示制御を実施してもよい。
In a sixth aspect subordinate to any one of the first to fifth aspects,
The display control unit reduces the degree of blurring when the virtual image displayed in the area of the virtual image display surface where the degree of blurring is high is determined to have a higher degree of urgency or importance than usual. Display control may also be implemented.

第6の態様では、表示制御部が、表示部の表示面に視差画像の表示をなす際に、個別に画像処理を行って、例えば、ぼかしを抑制したり、陰影や外形を強調したりして鮮明度を増す補正を行うことができる。 In the sixth aspect, when the display control unit displays the parallax images on the display surface of the display unit, the display control unit individually performs image processing to suppress blurring or emphasize shadows or external shapes, for example. It is possible to perform corrections to increase sharpness.

遠くにあって、ややぼかして表示した方が好ましいとされる虚像であっても、場合によっては、その解像度の低下が不要であることもある。例えば、車両の前方で生じた交通事故を報知する注意喚起マークを遠方に表示する場合や割り込み車両が危険な位置にとどまっていることを報知する危険報知の場合のように重要な運転シーンにおける報知時の表示、または、高速道路の出口の報知のように、見逃しが許されない重要度の高い表示の場合等である。このような対象についての虚像は、遠近に関係なく鮮明に表示するのが好ましいともいえる。 Even if the virtual image is located far away and would be better to be displayed in a somewhat blurred manner, there may be cases where it is not necessary to reduce its resolution. For example, notifications in important driving situations, such as when displaying a warning mark in the distance to notify of a traffic accident that has occurred in front of the vehicle, or in the case of a danger warning to notify that an intervening vehicle remains in a dangerous position. This is the case in the case of a highly important display that cannot be missed, such as a time display or an expressway exit notification. It can be said that it is preferable to display a virtual image of such an object clearly regardless of distance.

そこで、この場合には、表示制御部が、個別に画像処理を行って、個別に鮮明度を増す補正(強調処理等を含む)を行って個別に救済することで、本実施形態の光学部材を使用した場合の悪影響が発生しないようにすることができる。この場合でも、個別の画像処理であることから、画像処理ソフトウエアの負担はそれほど増大せず、問題は生じない。 Therefore, in this case, the display control unit individually performs image processing and individually performs correction to increase sharpness (including emphasis processing, etc.) to individually repair the optical member of the present embodiment. It is possible to prevent any negative effects from occurring when using . Even in this case, since the image processing is performed individually, the burden on the image processing software does not increase significantly, and no problem occurs.

当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。 Those skilled in the art will readily understand that the embodiments according to the invention as illustrated may be further modified without departing from the spirit of the invention.

図1(A)は比較例を示す図、図1(B)は本発明が適用されたHUD装置における表示例を示す図である。FIG. 1(A) is a diagram showing a comparative example, and FIG. 1(B) is a diagram showing a display example in a HUD device to which the present invention is applied. 図2は、本発明において、ボケを生じさせる原理を説明するための図である。FIG. 2 is a diagram for explaining the principle of producing blur in the present invention. 図3(A)は、3DのHUD装置の原理を示す図、図3(B)は、HUD装置における視差画像の表示の例を示す図である。FIG. 3(A) is a diagram showing the principle of a 3D HUD device, and FIG. 3(B) is a diagram showing an example of display of a parallax image in the HUD device. 図4(A)は、立体像(視差画像)の光線の再現について説明するための図、図4(B)は、レンチキュラレンズの例を示す図である。FIG. 4(A) is a diagram for explaining reproduction of light rays of a stereoscopic image (parallax image), and FIG. 4(B) is a diagram showing an example of a lenticular lens. 図5は、制御部(表示制御部)の構成例、及び表示部(フラットパネルディスプレイ)における画素構成の例を示す図である。FIG. 5 is a diagram showing an example of the configuration of a control unit (display control unit) and an example of a pixel configuration in the display unit (flat panel display). 図6は、車両に搭載されたHUD装置の構成の一例、及び、虚像表示面と結像面の例を示す図である。FIG. 6 is a diagram showing an example of the configuration of a HUD device mounted on a vehicle, and an example of a virtual image display surface and an imaging surface. 図7は、ウインドシールドを介してユーザーが視認する虚像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a virtual image viewed by a user through a windshield. 図8(A)、(B)は路面に張り付くように虚像を表示する場合の表示例を示す図、図8(C)~(E)は、ウインドシールドを介してユーザーが視認する虚像の他の例を示す図である。8(A) and 8(B) are diagrams showing display examples when a virtual image is displayed so as to stick to the road surface, and FIG. It is a figure showing an example. 図9(A)は、HUD装置のシステム構成の一例を示す図、図9(B)は、表示制御部の構成例を示す図である。FIG. 9(A) is a diagram showing an example of a system configuration of a HUD device, and FIG. 9(B) is a diagram showing an example of a configuration of a display control section. 図10は、HUD装置の全体の構成の一例を示す図である。FIG. 10 is a diagram showing an example of the overall configuration of the HUD device. 図11は、表示制御部による表示処理の手順の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the procedure of display processing by the display control unit.

以下に説明する最良の実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。 The best embodiment described below is used to facilitate understanding of the present invention. Therefore, those skilled in the art should note that the invention is not unduly limited by the embodiments described below.

図1を参照する。図1(A)は比較例を示す図、図1(B)は本発明が適用されたHUD装置における表示例を示す図である。まず、比較例(本発明を適用しない例)について説明する。なお、この比較例は、本発明前に、本発明者によって検討されたものであり、従来技術ではない。 Please refer to FIG. FIG. 1(A) is a diagram showing a comparative example, and FIG. 1(B) is a diagram showing a display example in a HUD device to which the present invention is applied. First, a comparative example (an example to which the present invention is not applied) will be described. Note that this comparative example was studied by the inventor before the present invention, and is not a prior art.

また、図1(A)において、車両1の幅方向をX方向(左右方向)とし、路面(図1では不図示、図6の符号40)に直交する方向をY方向(上下方向あるいは高さ方向)とし、車両1の進行方向をZ方向(前後方向あるいは奥行き方向)とする。ここで、Y方向を上下方向と表現したとき、上方向とは路面40から離れる方向であり、下方向とは路面40に近づく方向である。また、Z方向を奥行き方向と表現するとき、車両1から、より遠くへと離れていく方向が奥(奥側)であり、車両1に近づく方向が手前(手前側)である。なお、奥側という表現は、車両1から遠い側と言い換えることができる。手前側という表現は、車両1に近い側ということができる。 In FIG. 1A, the width direction of the vehicle 1 is the X direction (left-right direction), and the direction perpendicular to the road surface (not shown in FIG. 1, reference numeral 40 in FIG. 6) is the Y direction (vertical direction or height direction). direction), and the traveling direction of the vehicle 1 is the Z direction (front-back direction or depth direction). Here, when the Y direction is expressed as an up-down direction, the upward direction is a direction away from the road surface 40, and the downward direction is a direction approaching the road surface 40. Furthermore, when the Z direction is expressed as a depth direction, the direction that goes farther away from the vehicle 1 is the back (rear side), and the direction that approaches the vehicle 1 is the front (near side). Note that the expression "back side" can be translated as a side far from the vehicle 1. The expression "front side" can be said to mean the side closer to the vehicle 1.

HUD装置101’は、車両(自車両)1に搭載され、被投影部材としてのウインドシールド2に表示光Kを投影し、その反射光を、運転者(HUD装置のユーザー)の視点Aに入射させる。 The HUD device 101' is mounted on a vehicle (own vehicle) 1, projects display light K onto a windshield 2 as a projected member, and makes the reflected light enter a viewpoint A of the driver (user of the HUD device). let

このHUD装置101’は、多視点型3Dディスプレイ(以下、単に3Dディスプレイ、又は立体表示装置と称する場合がある)230と,折り返しミラー(反射ミラー)174と,凹面鏡(曲面ミラー)171と,カバーガラス119と、外装121と,表示制御部(不図示)と、を有する。 This HUD device 101' includes a multi-view 3D display (hereinafter sometimes simply referred to as a 3D display or a stereoscopic display device) 230, a folding mirror (reflection mirror) 174, a concave mirror (curved mirror) 171, and a cover. It includes a glass 119, an exterior 121, and a display control section (not shown).

立体表示装置(3Dディスプレイ)230は,例えば,バックライトと,表示部としての液晶パネルと,レンチキュラレンズと、で構成することができる(詳細は後述する)。表示部(液晶パネル)の表示面215は、HUD装置の光学系(凹面鏡171、折り返しミラー174を構成要素として含む)の光軸に対して傾斜して配置されている。図1(A)において、表示光Kが、実線の1本の線で描かれているが、この1本の線は、上記の光軸に沿う主光線である。図示されるとおり、表示面215は、主光線(光軸)とは直交せず、傾斜して設けられている。 The stereoscopic display device (3D display) 230 can be configured with, for example, a backlight, a liquid crystal panel as a display section, and a lenticular lens (details will be described later). The display surface 215 of the display unit (liquid crystal panel) is arranged to be inclined with respect to the optical axis of the optical system (including the concave mirror 171 and the folding mirror 174 as components) of the HUD device. In FIG. 1A, the display light K is drawn as a single solid line, and this single line is a principal ray along the optical axis. As shown in the figure, the display surface 215 is not perpendicular to the chief ray (optical axis) but is provided at an angle.

この傾斜の程度によって、虚像表示面PSの、路面(図1(A)では不図示、図6の符号40)に対する傾斜の角度が変化し、必要に応じて、虚像表示面PSを、路面に重畳させることも可能である。ここで、虚像表示面PSは、表示面215と光学的共役の関係にある。 Depending on the degree of inclination, the angle of inclination of the virtual image display surface PS with respect to the road surface (not shown in FIG. 1A, reference numeral 40 in FIG. It is also possible to overlap. Here, the virtual image display surface PS is in an optically conjugate relationship with the display surface 215.

なお、虚像表示面PSの、運転者(言い換えれば視点A)に近い側の端部U1を、「近端部」と称し、遠い側の端部U4を「遠端部」と称する。また、図1(A)において、運転者(HUD装置のユーザー)の視点Aと虚像表示面PSとを結ぶ代表的な光線として、3本の光線E1~E3が描かれている。 Note that the end U1 of the virtual image display surface PS closer to the driver (in other words, the viewpoint A) is referred to as a "near end", and the end U4 farther away is referred to as a "far end". Further, in FIG. 1(A), three light rays E1 to E3 are drawn as representative light rays connecting the viewpoint A of the driver (user of the HUD device) and the virtual image display surface PS.

立体表示装置(3Dディスプレイ)230は、設計時に想定した複数の視点との位置関係に基づいて,表示部(液晶パネル)を適切に制御し、表示面215に、左目用/右目用の各画像を同時に表示する。これによって、表示面215上の各画像の表示光が同時に生じる。このことは、立体像としての視差画像(図中の符号IM0)から各表示光が生じているとも考えられ、言い換えれば、左右の各画像を対応づけることで視差画像IM0が復元されているとみることができる(但し、実際には、各表示光が再現され、各々が分離されて個別に進行して結像しない。よって、そのような視差画像は感得できないものである)。この視差画像IM0は、虚像表示面PS上に表示される、観察される虚像(単に、虚像と称する場合もある)V0と光学的共役の関係にある。 The stereoscopic display device (3D display) 230 appropriately controls the display unit (liquid crystal panel) based on the positional relationship with multiple viewpoints assumed at the time of design, and displays each image for the left eye and right eye on the display surface 215. displayed at the same time. As a result, display light for each image on the display surface 215 is generated simultaneously. This means that each display light may be generated from the parallax image (symbol IM0 in the figure) as a stereoscopic image.In other words, the parallax image IM0 is restored by associating the left and right images. (However, in reality, each display light is reproduced, and each display light is not separated and individually progressed to form an image. Therefore, such a parallax image cannot be perceived.) This parallax image IM0 is in an optically conjugate relationship with the observed virtual image (sometimes simply referred to as a virtual image) V0 displayed on the virtual image display surface PS.

図1(A)の例では、虚像表示面PS上に、観察される虚像V0が表示され、両者は一体的とみることができる。 In the example of FIG. 1A, the virtual image V0 to be observed is displayed on the virtual image display surface PS, and the two can be seen as one.

次に、図1(B)を参照する。図1(B)のHUD装置101の構成要素は、図1(A)と同じである。但し、図1(B)では、表示面215に表示される左目用/右目用の各画像を対応させることで復元される立体像(立体映像)としての視差画像が、表示面215よりも、光が発せられる側に飛び出して(表示面215と距離をおいて)存在するIM1である。 Next, refer to FIG. 1(B). The components of the HUD device 101 in FIG. 1(B) are the same as those in FIG. 1(A). However, in FIG. 1B, the parallax image as a stereoscopic image (stereoscopic video) restored by correlating the left-eye and right-eye images displayed on the display surface 215 is larger than that on the display surface 215. This is the IM1 that protrudes to the side from which light is emitted (at a distance from the display surface 215).

この視差画像IM1は、図示されるように、上側の端部(端点)が、表示面215と一致又は略一致(つまり、少し間隔が有る場合も想定される)し、一方、下側の端部(端点)が、表示面215から、光が発せられる側に飛び出し、これによって、全体として、表示面215に対して傾斜した面を形成するような像となっている。 As shown in the figure, in this parallax image IM1, the upper end (end point) coincides with or almost coincides with the display surface 215 (in other words, it is assumed that there is a slight gap), and on the other hand, the lower end The portions (endpoints) protrude from the display surface 215 toward the side from which light is emitted, thereby forming an image that forms a surface inclined with respect to the display surface 215 as a whole.

HUD装置101の光学系は、この視差画像IM1を結像面VTに結像させる。結像面VTは、虚像表示面PSの手前側に位置すると想定される仮想的な面である。視差画像IM1と結像面VTとは光学的共役の関係にある。 The optical system of the HUD device 101 forms this parallax image IM1 on the imaging plane VT. The imaging plane VT is a virtual plane assumed to be located in front of the virtual image display plane PS. The parallax image IM1 and the imaging plane VT have an optically conjugate relationship.

図示されるように、結像面VTの手前側の端部は、虚像表示面PSの近端部U1と一致又は略一致する。結像面VTの奥側の端部U5は、虚像表示面PSの遠端部U4とは一致せず、U4よりも、運転者から見て手前側に位置する。結像面VTは、U1の位置からU5の位置に向かうにつれて、虚像表示面PSとの距離(間隔)が増大する(言い換えれば、手前側に離れる)ような斜面である。 As illustrated, the front end of the imaging plane VT coincides with or substantially coincides with the near end U1 of the virtual image display surface PS. The far end U5 of the imaging plane VT does not coincide with the far end U4 of the virtual image display surface PS, and is located closer to the driver than U4. The imaging plane VT is a slope whose distance (interval) from the virtual image display plane PS increases (in other words, it moves away from the front side) as it goes from the position U1 to the position U5.

また、図中、虚像表示面PS、結像面VTは、共に平面として描かれているが、曲面であってもよい。曲面の形状としては、例えば、中央付近が路面40に最も近づくような谷状の円弧面等、種々の曲面が想定され得る。これらの曲面は、例えば、凹面鏡171の光反射面を自由曲面として設計することで、適宜、調整することができる。 Further, in the figure, the virtual image display surface PS and the imaging surface VT are both drawn as flat surfaces, but they may be curved surfaces. Various curved surfaces can be assumed as the shape of the curved surface, such as a trough-shaped arc surface whose center portion is closest to the road surface 40, for example. These curved surfaces can be adjusted as appropriate by, for example, designing the light reflecting surface of the concave mirror 171 as a free-form surface.

図1(B)の例では、虚像表示面PSと結像面VTは、運転者からみて手前側の端部において一致(略一致)するが、奥側にいくにつれて、徐々に距離(間隔)が開きはじめ、奥側の端部にて、距離(間隔)が最大となる。この距離(間隔)の変化が、虚像表示面PS上の虚像(観察される虚像)V0’に、ボケを生じさせる。 In the example of FIG. 1(B), the virtual image display surface PS and the image forming surface VT match (approximately match) at the near end when viewed from the driver, but the distance (interval) gradually decreases toward the back. begins to open, and the distance (spacing) reaches its maximum at the far end. This change in distance (interval) causes the virtual image (virtual image to be observed) V0' on the virtual image display surface PS to become blurred.

この点について、図2を用いて具体的に説明する。図2は、本発明において、ボケを生じさせる原理を説明するための図である。図2において、図1と共通する部分には同じ符号を付している。また、左目はAL、右目はARと表記されている。また、白抜きの丸で示されるP1、P3、P6は、結像面VT上の点である。黒丸で示されるP2、P4、P5、P7、P8は、虚像表示面PS上の点である。 This point will be specifically explained using FIG. 2. FIG. 2 is a diagram for explaining the principle of producing blur in the present invention. In FIG. 2, parts common to those in FIG. 1 are given the same reference numerals. Further, the left eye is written as AL, and the right eye is written as AR. Further, P1, P3, and P6 indicated by white circles are points on the imaging plane VT. P2, P4, P5, P7, and P8 indicated by black circles are points on the virtual image display surface PS.

上記のとおり、本発明では、視差画像IM1を、虚像表示面PSよりも、運転者から見て手前に位置する面(結像面VT)に結像させる。言い換えれば、虚像表示面PSとは異なる、視差画像IM1と光学的共役である結像面VTが想定され得る。HUD装置101の光学系は、視差画像IM1を結像面VTに結像させるように設計され、また、表示面215には、視差画像IM1が結像面VTに結像されることを想定して、表示内容を描画した画像(左目用/右目用の各画像)が表示される。 As described above, in the present invention, the parallax image IM1 is formed on a surface (imaging surface VT) located closer to the driver than the virtual image display surface PS. In other words, an imaging plane VT that is optically conjugate with the parallax image IM1, which is different from the virtual image display plane PS, can be assumed. The optical system of the HUD device 101 is designed to focus the parallax image IM1 on the imaging plane VT, and the display surface 215 is designed to image the parallax image IM1 on the imaging plane VT. Then, images (left eye/right eye images) depicting the display contents are displayed.

ここで、結像面(仮想的な面)VTは、図2に示されるように、手前側の端(端部)が、虚像表示面PSの近端部(運転者に近い側の端部)U1と一致又は略一致するが、奥側の端(端部)U5が、虚像表示面PSの遠端部(運転者から遠い側の端部)U4から(手前側に)離れるように配置(配設)される平面又は曲面である。 Here, as shown in FIG. 2, the imaging plane (virtual plane) VT has a front end (end) at the near end (end near the driver) of the virtual image display surface PS. ) coincides with or substantially coincides with U1, but is arranged so that the far end (end) U5 is separated (toward the near side) from the far end (end farthest from the driver) U4 of the virtual image display surface PS. It is a flat or curved surface on which it is (arranged).

運転者(HUD装置101のユーザー)が、両目で視差画像を知覚した場合、左目と右目との輻輳角によって定まる各視線が、虚像表示面PSではなく、結像面VT(言い換えれば、結像して鮮明度が高いと感じられる、視差画像IM1と光学的共役である仮想的な虚像)に向くことになる。 When a driver (user of the HUD device 101) perceives a parallax image with both eyes, each line of sight determined by the convergence angle between the left eye and the right eye is not on the virtual image display surface PS but on the image forming plane VT (in other words, the image forming (a virtual virtual image that is optically conjugate with the parallax image IM1) that is felt to have high clarity.

これによって、結像面の位置(立体位置)に、左目AL/右目ARの各焦点が合うように調節されてしまう。言い換えれば、人の知覚は、焦点を結像面VTに合わせようとする。 As a result, the focal points of the left eye AL and the right eye AR are adjusted to the position (stereoscopic position) of the imaging plane. In other words, human perception tends to focus on the imaging plane VT.

しかし、左目AL、右目ARの各々に向かう光は、表示部の表示面215と光学的共役関係にある虚像表示面PSから発せられている。言い換えれば、実際に光を発しているのは表示部の表示面215であり、よって、表示面215と光学的共役である虚像表示面PSから、人の目へと光がくることになる。このため、結像面VTに焦点を合わせてしまった左目AL、右目ARにとっては、結像面VTの奥にある虚像表示面PSに虚像を見てしまうのであり、この結果、焦点が合っていないボケた虚像(虚像表示面PS上の虚像V0’)を視認する(知覚する)ということになる。 However, the light directed toward each of the left eye AL and the right eye AR is emitted from a virtual image display surface PS that is optically conjugate with the display surface 215 of the display section. In other words, it is the display surface 215 of the display unit that actually emits light, and therefore, light comes to the human eye from the virtual image display surface PS, which is optically conjugate with the display surface 215. For this reason, the left eye AL and right eye AR, which have focused on the imaging plane VT, see the virtual image on the virtual image display surface PS located at the back of the imaging plane VT, and as a result, they are out of focus. This means that a blurred virtual image (virtual image V0' on the virtual image display surface PS) is visually recognized (perceived).

運転者に近い側は、虚像表示面と結像面との間隔は大きくはない。運転者から遠ざかるほど、各面の間隔は大きくなっていく。したがって、運転者から遠くなるほど、虚像表示面上に知覚される虚像のボケ(ぼかし)の程度は大きくなる。 On the side closer to the driver, the distance between the virtual image display surface and the image formation surface is not large. The distance between each surface increases as the distance from the driver increases. Therefore, the further away from the driver, the greater the degree of blurring of the virtual image perceived on the virtual image display surface.

図2において、点P1とP2は重なっている(あるいは略重なっている)が、点P4とP5はやや間隔があいており、より遠方の点P7、P8では、間隔はより広がっており、遠方にいくほどボケ(ぼかし)の程度が大きくなっている。よって、表示される像(虚像V0’)は、周囲の背景画像と同様の、自然なぼかしが入った像となる。したがって、運転者の違和感が低減され、目の疲労も軽減されることになる。 In Figure 2, points P1 and P2 overlap (or almost overlap), but points P4 and P5 are slightly apart, and at points P7 and P8, which are farther away, the gap is wider; The degree of blur increases as you go further down. Therefore, the displayed image (virtual image V0') is a naturally blurred image similar to the surrounding background image. Therefore, the driver's discomfort is reduced, and eye fatigue is also reduced.

次に、図3を参照する。図3(A)は、3DのHUD装置の原理を示す図、図3(B)は、HUD装置における視差画像の表示の例を示す図である。 Next, refer to FIG. FIG. 3(A) is a diagram showing the principle of a 3D HUD device, and FIG. 3(B) is a diagram showing an example of display of a parallax image in the HUD device.

図3(A)において、フラットパネルディスプレイ(液晶パネル等)210の表示面211に、右目用の画像(視差画像)QR、左目用の画像(視差画像)QLが表示される。なお、「視差画像」とは、左右の目が異なる位置にあることによって生じる視差(各目が知覚する画像の差)が再現されている画像である。 In FIG. 3A, an image for the right eye (parallax image) QR and an image for the left eye (parallax image) QL are displayed on a display surface 211 of a flat panel display (liquid crystal panel, etc.) 210. Note that the "parallax image" is an image that reproduces the parallax (difference between images perceived by each eye) caused by the left and right eyes being in different positions.

表示部210の光出射側を前方とするとき、表示部210の前方に光学部材(図3(A)の例では符号RSを付して示している)が配置される。光学部材RSは光線分離部材として機能し、左上側に示されるように、具体的にはレンチキュラレンズ220、あるいは、パララックスバリア(視差バリア)225等により構成することができる。但し、これらは例示であり、これらに限定されるものではない。レンチキュラレンズについては後述する。 When the light emitting side of the display section 210 is the front side, an optical member (indicated by the symbol RS in the example of FIG. 3A) is arranged in front of the display section 210. The optical member RS functions as a light beam separating member, and can be specifically configured with a lenticular lens 220 or a parallax barrier 225, as shown on the upper left side. However, these are examples and are not limited to these. The lenticular lens will be described later.

また、パララックスバリア(視差バリア)は、例えば幅の細い短冊状(矩形形状)の遮蔽物225a~225nを、隙間(スリット)SLを設けつつ横方向に所定ピッチで配置したものであり、同じ画像であっても、遮蔽物によって、その画像の表示光の一部を遮蔽することで、左右の各目用の、異なる映像の表示光(指向性のある表示光)を発生させるものであり、光線を左右の各目用に分離する点ではレンチキュラレンズと共通する。但し、光を遮断するため映像がやや暗くなることがあり、この点ではレンチキュラレンズの方が有利となる。 Further, a parallax barrier is one in which, for example, narrow strip-shaped (rectangular) shielding objects 225a to 225n are arranged at a predetermined pitch in the lateral direction while providing gaps (slits) SL. Even if it is an image, by blocking part of the image display light with a blocking object, different image display light (directional display light) is generated for the left and right eyes. It is similar to a lenticular lens in that it separates light rays for each eye. However, since the light is blocked, the image may become somewhat dark, so lenticular lenses are more advantageous in this respect.

光学部材として、現在の3Dディスプレイの分野で主流技術といわれるレンチキュラレンズ、又はパララックスバリア(視差バリア)を使用することで、表示される映像品質を安定に維持することができる。 By using a lenticular lens or a parallax barrier, which is said to be the mainstream technology in the current 3D display field, as an optical member, the quality of displayed images can be stably maintained.

光線分離機能を有する光学部材RSで分離された光(画像を再現する各目用の再現光E(L1)、E(R1))が、光の結像点に位置する両目AL、ARに入光したとすると、人には、輻輳(光の交差)が生じている箇所にて、見かけ上の立体像IMが見える。言い換えれば、このことは、立体像IMが、3Dディスプレイによって生成された、とみることもできる。なお、図3(A)の例では、輻輳角はθcである。 The light separated by the optical member RS having a beam separation function (reproduction light E(L1), E(R1) for each eye that reproduces the image) enters the eyes AL and AR located at the light imaging point. When light is emitted, a person can see an apparent three-dimensional image IM at locations where convergence (intersection of light) occurs. In other words, this can also be seen as the stereoscopic image IM being generated by the 3D display. Note that in the example of FIG. 3(A), the convergence angle is θc.

図3(B)を参照する。図3(B)では、視認者(車両の運転者等)の前にアイボックスEBが設定されており、アイポイントEP(C)は、アイボックスEBの中央に位置する。ウインドシールド2の前方に、左右の各目に対応する仮想的な結像面PS(L)、PS(R)を設定したとすると、その重なりの領域の中央に虚像V(C)が位置する。虚像V(C)の輻輳角はθdであり、虚像V(C)は、視認者(ユーザー)には立体的な像として認識されることになる。 Refer to FIG. 3(B). In FIG. 3(B), an eyebox EB is set in front of a viewer (such as a driver of a vehicle), and an eyepoint EP(C) is located at the center of the eyebox EB. Assuming that virtual imaging planes PS (L) and PS (R) corresponding to the left and right eyes are set in front of the windshield 2, the virtual image V (C) is located in the center of the overlapping area. . The convergence angle of the virtual image V(C) is θd, and the virtual image V(C) is recognized by the viewer (user) as a three-dimensional image.

この立体的な虚像V(C)は、以下のようにして表示(形成)される。すなわち、図3(A)に示した3Dディスプレイにより生成された仮想的な立体像IMの、左右の各目用の再現光e(L1)、e(R1)を、HUD装置の光学系に含まれる曲面ミラー(凹面鏡等)171にて反射させ(反射の回数は少なくとも1回)、これによって、表示光E(L1)、E(R1)としてウインドシールド2に投射(投影)し、その反射光が視認者の両目に至り、ウインドシールド2の前方に像を結ぶことによって、虚像V(C)が表示(形成)されることになる。 This three-dimensional virtual image V(C) is displayed (formed) as follows. That is, the optical system of the HUD device includes reproduction lights e(L1) and e(R1) for the left and right eyes of the virtual stereoscopic image IM generated by the 3D display shown in FIG. 3(A). The reflected light is reflected by a curved mirror (concave mirror, etc.) 171 (the number of reflections is at least once), and is thereby projected (projected) onto the windshield 2 as display light E (L1) and E (R1). reaches both eyes of the viewer and forms an image in front of the windshield 2, whereby a virtual image V(C) is displayed (formed).

次に、図4を参照する。図4(A)は、立体像(視差画像)の光線の再現について説明するための図、図4(B)は、レンチキュラレンズの例を示す図である。 Next, refer to FIG. 4. FIG. 4(A) is a diagram for explaining reproduction of light rays of a stereoscopic image (parallax image), and FIG. 4(B) is a diagram showing an example of a lenticular lens.

図4(A)、(B)において、3Dディスプレイ部(立体表示部)230は、視差画像を表示する表示面215を備える表示部(フラットパネルディスプレイ等)210と、表示部2110に接触して、又は近接して配置され、左目用視差画像及び右目用視差画像の各光線を分離する光線分離機能をもつ光学部材(あるいは光線分離部)としてのレンチキュラレンズ220と、を有する。 In FIGS. 4A and 4B, a 3D display unit (stereoscopic display unit) 230 includes a display unit (such as a flat panel display) 210 that includes a display surface 215 that displays a parallax image, and a display unit that is in contact with a display unit 2110. , or a lenticular lens 220 as an optical member (or a light beam separation unit) that is arranged close to each other and has a light beam separation function to separate the respective light beams of the left-eye parallax image and the right-eye parallax image.

レンチキュラレンズ220は、複数の、光学要素としての円筒レンズ(シリンドリカルレンズ)F1~Fnが、横方向(図4(B)の方向W)に沿って、所定ピッチで配置(配列)して、横方向に周期的なレンズアレイ構造を形成することで構成される。光学要素としての円筒レンズ(F1~Fn)は、表示部210側を後方側とし、その反対側を前方側とするとき、背面が光を通過させる平面で、前面が球面レンズ(但し、非球面であることを排除するものではない)である縦長の円筒レンズ(シリンドリカルレンズ)である。図4(A)の例では、レンズの球面の曲率は一律としている。 The lenticular lens 220 includes a plurality of cylindrical lenses F1 to Fn as optical elements arranged (arranged) at a predetermined pitch along the lateral direction (direction W in FIG. 4(B)). It is constructed by forming a periodic lens array structure in the direction. The cylindrical lens (F1 to Fn) as an optical element is a flat surface through which light passes, and a spherical lens (however, an aspherical lens) on the front surface, when the display unit 210 side is the rear side and the opposite side is the front side. It is a vertically elongated cylindrical lens (cylindrical lens). In the example of FIG. 4(A), the curvature of the spherical surface of the lens is uniform.

具体的には、図4(B)に示されるように、円筒レンズF1、F2、F3、F4・・・が、横方向に沿ってピッチCWで配置される構造を有する。この構造は、光線分離部220を構成する。なお、上記の「ピッチ」は、例えば、1つの円筒レンズの中央の位置から、隣接する円筒レンズの中央の位置までの距離である。 Specifically, as shown in FIG. 4(B), the cylindrical lenses F1, F2, F3, F4, . . . have a structure in which they are arranged at pitches CW along the lateral direction. This structure constitutes the beam separation section 220. Note that the above-mentioned "pitch" is, for example, the distance from the center position of one cylindrical lens to the center position of an adjacent cylindrical lens.

なお、上記の「横方向W(図4(B)参照)」は、立体表示装置における横方向であり、この「横方向W」は、HUD装置101の、車両1の幅方向(左右方向、X方向)に対応する方向である。また、「縦方向H(図4(B)参照)」は、横方向に直交する方向であって、HUD装置101の、車両1の高さ方向(Y方向)に対応する方向である。 Note that the above-mentioned “lateral direction W (see FIG. 4(B))” is the horizontal direction in the stereoscopic display device, and this “lateral direction W” is the horizontal direction of the HUD device 101 in the width direction of the vehicle 1 (horizontal direction, This is the direction corresponding to the X direction). Further, the "vertical direction H (see FIG. 4(B))" is a direction orthogonal to the horizontal direction, and is a direction corresponding to the height direction (Y direction) of the vehicle 1 of the HUD device 101.

表示部210は、表示面215において、左目用の画像(視差画像)の画素L(L1~Ln)と、右目用の画像(視差画像)の画素R(R1~Rn)とを、横方向に、交互に配置して画素行を形成し、画素行を縦方向にも配置することで、2次元の、複数の画素からなる画像面(画素表示面、又は画素マトリックス)を形成した構成を有する(図5も参照)。 The display unit 210 displays pixels L (L1 to Ln) of the image for the left eye (parallax image) and pixels R (R1 to Rn) of the image for the right eye (parallax image) in the horizontal direction on the display surface 215. , has a configuration in which a two-dimensional image surface (pixel display surface or pixel matrix) consisting of a plurality of pixels is formed by arranging them alternately to form pixel rows and also arranging the pixel rows in the vertical direction. (See also Figure 5).

図4(A)では、左目用画素(Lの画素)L1~Lnの各々は、光学要素としての円筒レンズF1~Fnの各々の左半分に対応する位置に配置(形成)される。右目用画素(Rの画素)R1~Rnの各々は、光学要素としての円筒レンズF1~Fnの各々の右半分に対応する位置に配置(形成)される。なお、1画素は、さらに、R(赤)、G(緑)、B(青)の各サブピクセルからなるものとする。 In FIG. 4A, each of the left-eye pixels (L pixels) L1 to Ln is arranged (formed) at a position corresponding to the left half of each of the cylindrical lenses F1 to Fn as optical elements. Each of the right-eye pixels (R pixels) R1 to Rn is arranged (formed) at a position corresponding to the right half of each of the cylindrical lenses F1 to Fn as optical elements. Note that one pixel further includes R (red), G (green), and B (blue) subpixels.

先に図3(A)で説明したように、3Dディスプレイ部230の前方の、光の結像点911、913において、人の両目AL、ARが位置したとすると、光線の輻輳が生じる箇所において、立体像IMを視認することができる。図4(A)では、左目用画素L4~L6の再現光として、E(L4)~E(L6)が示され、右目用画素R4~R6の再現光として、E(R4)~E(R6)が示されている。 As explained earlier with reference to FIG. 3A, if the human eyes AL and AR are located at the light imaging points 911 and 913 in front of the 3D display unit 230, then the light rays will be located at the point where the light rays converge. , the stereoscopic image IM can be visually recognized. In FIG. 4A, E(L4) to E(L6) are shown as the reproduced lights of the left-eye pixels L4 to L6, and E(R4) to E(R6) are shown as the reproduced lights of the right-eye pixels R4 to R6. )It is shown.

次に、図5を参照する。図5は、制御部(表示制御部)の構成例、及び表示部(フラットパネルディスプレイ)における画素構成の例を示す図である。 Next, refer to FIG. 5. FIG. 5 is a diagram showing an example of the configuration of a control unit (display control unit) and an example of a pixel configuration in the display unit (flat panel display).

図5において、表示制御部300は、画像生成部(左目用/右目用画像生成部)310を有する。表示制御部300は、画像生成部310を制御して、表示部210の表示面215の第1の実像表示領域G(Z1’)に、第1の表示対象(例えば、図1(A)の車速表示の画像)の左目用画像GL及び右目用画像GR(これらを総称して第1の画像という)を表示させる。 In FIG. 5 , the display control unit 300 includes an image generation unit (left eye/right eye image generation unit) 310 . The display control unit 300 controls the image generation unit 310 to display a first display target (for example, in FIG. A left-eye image GL and a right-eye image GR (these are collectively referred to as a first image) of the vehicle speed display image are displayed.

また、表示部210の表示面215の第2の実像表示領域G(Z2’)に、又は、第1、第2の実像表示領域G(Z1’)及びG(Z2’)の双方に、第2の表示対象(例えば、図1(A)のナビ用矢印の画像や標識の画像)の左目用画像GLb及び右目用画像GRb(これらを総称して第2の画像という)を表示させる。なお、G(Z1’)及びG(Z2’)の双方を含めているのは、例えば、虚像表示面PSの近端部側から遠端部側へと、広範囲にわたって延在するナビゲーション用の矢印の図形等が表示されることを考慮したものである。 Further, a second real image display area G (Z2') of the display surface 215 of the display section 210 or both of the first and second real image display areas G (Z1') and G (Z2') The left-eye image GLb and the right-eye image GRb (these are collectively referred to as second images) of the second display target (for example, the image of the navigation arrow or the image of the sign in FIG. 1(A)) are displayed. Note that both G (Z1') and G (Z2') are included because, for example, the navigation arrow extends over a wide range from the near end side to the far end side of the virtual image display surface PS. This is done in consideration of the fact that figures, etc., will be displayed.

また、図5において、表示部210の表示面215には、RGBのサブピクセルからなる画素PX(RGB)が行方向(横方向)及び列方向(縦方向)に配列されており、これによって、2次元の画素面(画像表示面、又は画素マトリクス)が形成されている。 Further, in FIG. 5, on the display surface 215 of the display unit 210, pixels PX (RGB) consisting of RGB sub-pixels are arranged in the row direction (horizontal direction) and the column direction (vertical direction). A two-dimensional pixel surface (image display surface or pixel matrix) is formed.

次に、図6を参照する。図6は、車両に搭載されたHUD装置の構成の一例、及び、虚像表示面と結像面の例を示す図である。図6において、図1と共通する部分には同じ参照符号を付している。 Next, refer to FIG. FIG. 6 is a diagram showing an example of the configuration of a HUD device mounted on a vehicle, and an example of a virtual image display surface and an imaging surface. In FIG. 6, parts common to those in FIG. 1 are given the same reference numerals.

図6において、HUD装置(立体視HUD装置)101は、画像生成源として、立体表示装置(3Dディスプレイ)231を備える。立体表示装置231は、図1を用いて先に説明したように、立体像としての視差画像の再現光を生成する機能を有し、表示面を備える表示部(例えばフラットパネルディスプレイ)210と、表示部210に接触して、又は近接して配置され、左目用/右目用の各画像の各光線を分離する光線分離機能をもつ光学部材としてのレンチキュラレンズ220と、表示部210における画像表示を制御する表示制御部300と、を有する。なお、表示部210及び光学部材としてのレンチキャラレンズ220によって、立体表示部(3Dディスプレイ部)230が構成される。なお、立体表示装置231の高さはH1であり、スクリーンを用いた2DのHUD装置の投光部に比べて、高さを低く抑えることができる。このことは、HUD装置101の小型化に貢献する。 In FIG. 6, a HUD device (stereoscopic HUD device) 101 includes a stereoscopic display device (3D display) 231 as an image generation source. As described above with reference to FIG. 1, the stereoscopic display device 231 has a function of generating light for reproducing a parallax image as a stereoscopic image, and includes a display unit (for example, a flat panel display) 210 having a display surface; A lenticular lens 220 is disposed in contact with or in close proximity to the display section 210 and is an optical member having a light beam separation function of separating each light beam of each image for the left eye/right eye, and the image display on the display section 210. It has a display control section 300 for controlling. Note that a three-dimensional display section (3D display section) 230 is configured by the display section 210 and the lenticular lens 220 as an optical member. Note that the height of the stereoscopic display device 231 is H1, and the height can be kept low compared to the light projecting section of a 2D HUD device using a screen. This contributes to downsizing of the HUD device 101.

図6では、立体表示装置(3Dディスプレイ)230から出射される光線として、e1、e2、e3の3本の光線(表示光K)が示されている。 In FIG. 6, three light rays e1, e2, and e3 (display light K) are shown as light rays emitted from the stereoscopic display device (3D display) 230.

表示光e1~e3は、HUD装置101の光学系52(反射部材としての折り返しミラー174及び曲面ミラー(凹面鏡、拡大鏡)171を備える)によって、少なくとも1回(図6では合計で2回)の反射がなされた後、ウインドシールド2に投影(投射)される。なお、運転者の視点Aに入射される3本の光線E1~E3の各々は、表示光e1~e3の各々に対応する。 The display lights e1 to e3 are transmitted at least once (two times in total in FIG. 6) by the optical system 52 of the HUD device 101 (including a folding mirror 174 and a curved mirror (concave mirror, magnifying mirror) 171 as a reflecting member). After being reflected, it is projected onto the windshield 2. Note that each of the three light rays E1 to E3 incident on the driver's viewpoint A corresponds to each of the display lights e1 to e3.

また、反射鏡(折り返しミラー)174は、成形された樹脂、例えばポリカーボネートに、金属、例えばアルミを蒸着した、光を反射するミラーである。曲面ミラー(凹面鏡)171は、例えば凹面(自由曲面であってもよい)を有するように成形した樹脂、例えばポリカーボネートに、金属、例えばアルミを蒸着したミラーであり、一種の拡大鏡としての機能を有し、表示光e1~e3をウインドシールド2に向けて投射することで画像(映像)の拡大投影を行う。カバーガラス176は、透明な樹脂、例えばポリカーボネート製のシートである。また、外装121は、HUD装置の構成要素を収容する筐体である。 Further, the reflecting mirror (returning mirror) 174 is a mirror that reflects light and is made of molded resin such as polycarbonate and metal such as aluminum vapor-deposited thereon. The curved mirror (concave mirror) 171 is a mirror made of resin, such as polycarbonate, molded to have a concave surface (which may be a free-form surface), and metal, such as aluminum, deposited on it, and functions as a kind of magnifying glass. By projecting the display lights e1 to e3 toward the windshield 2, an enlarged image (video) is projected. The cover glass 176 is a sheet made of transparent resin, such as polycarbonate. Moreover, the exterior 121 is a housing that houses the components of the HUD device.

なお、図6の構成では、回動部(アクチュエータ)175によって曲面ミラー171を回動させて、傾きを適宜、調整することができる。また、調整部(アクチュエータ)173によって、立体表示部(3Dディスプレイ部)230の傾斜等を調整することもできる。 In addition, in the configuration of FIG. 6, the curved mirror 171 can be rotated by the rotating part (actuator) 175 to adjust the inclination as appropriate. Further, the inclination of the stereoscopic display section (3D display section) 230, etc. can also be adjusted by the adjustment section (actuator) 173.

また、図6の左側に示されるように、虚像表示面PS上には、第1の虚像V1と、第2の虚像V2が表示されている。第1、第2の虚像V1、V2は、視差画像IM3と光学的共役の関係にある。 Further, as shown on the left side of FIG. 6, a first virtual image V1 and a second virtual image V2 are displayed on the virtual image display surface PS. The first and second virtual images V1 and V2 are in an optically conjugate relationship with the parallax image IM3.

ここで、PDと表記される所定の幅をもつ範囲は、許容焦点深度の範囲であり、この範囲PDに収まる焦点深度ずれであれば、運転者(ユーザー)の目には、その結像のずれが目立たず、ピンぼけが実質的に感得されない。 Here, the range with a predetermined width expressed as PD is the range of allowable depth of focus, and if the focal depth deviation falls within this range PD, the driver's (user's) eyes will notice that the image formation is The shift is not noticeable and the out-of-focus is virtually imperceptible.

虚像表示面PS上の、U1~U2の領域(第1の領域Z1)は、範囲PDの内にある。したがって、この範囲PDに位置する第1の虚像V1は、ピンぼけが目立たず、鮮明な画像である。この第1の虚像V1としては、例えば、情報提示の正確性が要求される表示(車速表示等)をあげることができる。 The area U1 to U2 (first area Z1) on the virtual image display surface PS is within the range PD. Therefore, the first virtual image V1 located in this range PD is a clear image with less noticeable defocus. This first virtual image V1 may be, for example, a display that requires accuracy in presenting information (vehicle speed display, etc.).

一方、U2~U4の領域(第2の領域Z2)は、範囲PDの外にあり、よって、第2の領域Z2に位置する虚像V2は、ピンぼけ(ぼかし)がユーザーに感得される。第2の虚像V2としては、例えば、ナビゲーション用の矢印の表示や、遠方に位置する標識の表示等があげられる。 On the other hand, the area U2 to U4 (second area Z2) is outside the range PD, and therefore, the user perceives the virtual image V2 located in the second area Z2 to be out of focus (blur). Examples of the second virtual image V2 include a display of an arrow for navigation, a display of a sign located far away, and the like.

図6の例では、U1、U2、U3、U4の各部(各点)に対する、視覚上の基準点(運転者の視点A、あるいは、これに代る車両1上の所定点等)を始点とした距離(虚像表示距離)は、L1、L2、L3、L4である。特に、L2~L4の範囲では、虚像表示距離が大きくなるほど、ぼかし(ピンぼけ)の量(程度)も増大し、距離に応じた自然な、虚像のボケ(ぼかし)が実現される。 In the example of FIG. 6, the starting point is the visual reference point (driver's viewpoint A, or a predetermined point on the vehicle 1 instead of this) for each part (each point) of U1, U2, U3, and U4. The distances (virtual image display distances) are L1, L2, L3, and L4. In particular, in the range of L2 to L4, as the virtual image display distance increases, the amount (degree) of blur (out of focus) also increases, and natural blur (blur) of the virtual image is realized according to the distance.

次に、図7を参照する。図7は、ウインドシールドを介してユーザーが視認する虚像の一例を示す図である。 Next, refer to FIG. FIG. 7 is a diagram illustrating an example of a virtual image viewed by a user through a windshield.

車両1は、直線状の道路を進行している。運転者は、ウインドシールド(フロントガラスやコンバイナ等)を介して、実景(背景)として、道路の側線51、53、センターライン55、及び信号機71を視認することができる。 Vehicle 1 is traveling on a straight road. The driver can visually recognize the side lines 51 and 53 of the road, the center line 55, and the traffic light 71 as a real scene (background) through the windshield (windshield, combiner, etc.).

また、車両1には、ステアリングホイール(広義には、ステアリングハンドル)7が設けられ、その近傍に、HUD装置のオン/オフの切り換えや、動作モード等を設定可能な操作部9が設けられている。また、フロントパネル11の中央には、表示装置(例えば、液晶表示装置)13が設けられている。表示装置13は、例えば、HUD装置による表示の補助用に用いることができる。なお、この表示装置13は、タッチパネル等を有する複合型のパネルであってもよい。 Further, the vehicle 1 is provided with a steering wheel (steering handle in a broad sense) 7, and an operating section 9 is provided near the steering wheel 7, which can turn on/off the HUD device, set the operation mode, etc. There is. Further, a display device (for example, a liquid crystal display device) 13 is provided at the center of the front panel 11. The display device 13 can be used, for example, to assist display by a HUD device. Note that this display device 13 may be a composite panel having a touch panel or the like.

虚像は、ウインドシールド2内の、虚像表示領域3に表示される。虚像表示領域3は、立体表示装置(3Dディスプレイ)における縦方向の画角、及び横方向の画角に応じて定まる。 The virtual image is displayed in a virtual image display area 3 within the windshield 2. The virtual image display area 3 is determined according to the vertical viewing angle and the horizontal viewing angle of the stereoscopic display device (3D display).

また、図7において、虚像表示面PSの、車両1に近い側の端部を近端部(点U1にて示す)とし、遠い側の端部を遠端部(点U4にて示す)とする。また、基準虚像V0の中心位置(点U3にて示す)とし、また、U1とU3との間に、第1の領域Z1と第2の領域Z2とを分ける境界位置(点U2にて示す)が有る。U1~U2の領域を第1の領域Z1とし、U2~U4の領域を第2の領域Z2とする。なお、図中、第1、第2の各領域Z1、Z2は、便宜上、楕円の破線にて示されている。 In addition, in FIG. 7, the end of the virtual image display surface PS closer to the vehicle 1 is referred to as a near end (indicated by point U1), and the end on the far side is referred to as a far end (indicated by point U4). do. In addition, the center position of the reference virtual image V0 (indicated by point U3), and the boundary position (indicated by point U2) separating the first area Z1 and second area Z2 between U1 and U3. There is. The area U1 to U2 is defined as a first area Z1, and the area U2 to U4 is defined as a second area Z2. In addition, in the figure, the first and second regions Z1 and Z2 are shown by broken elliptical lines for convenience.

また、図7において、手前側には、第1の虚像V1としての車速表示(「50km/h」という表示)SPが表示されている。奥側には、道路の路面40に沿って(例えば路面40に重畳されて)車両1の進行方向に延在するナビゲーション用矢印の虚像69と、制限速度を示す標識(交通標識)の虚像65が表示されている。これらは、第2の虚像V2の例である。標識65は自然なボケのある表示であり、実景である信号機71と比べても、視覚的な違和感がない。 Further, in FIG. 7, a vehicle speed display (display of "50 km/h") SP as the first virtual image V1 is displayed on the near side. On the back side, there is a virtual image 69 of a navigation arrow extending in the traveling direction of the vehicle 1 along the road surface 40 (for example, superimposed on the road surface 40), and a virtual image 65 of a sign (traffic sign) indicating a speed limit. is displayed. These are examples of the second virtual image V2. The sign 65 is displayed with natural blur, and there is no visual discomfort when compared with the traffic light 71, which is a real scene.

また、矢印の虚像69の、車両1から近い側の端部を近端部J1とし、遠い側の端部を遠端部J2とするとき、J1からJ2に向かって、車両1からの距離(虚像表示距離)に応じて「ぼかし量」を徐々に増大させていくこともできる。なお、その「ぼかし量」の増大の態様としては、距離(虚像表示距離)に応じた連続的な増大であってもよく、ステップ的な増大であってもよい。 Further, when the end of the virtual image 69 of the arrow near the vehicle 1 is defined as the near end J1 and the end far away is defined as the far end J2, the distance from the vehicle 1 ( It is also possible to gradually increase the "blurring amount" according to the virtual image display distance). Note that the manner in which the "blur amount" increases may be a continuous increase according to the distance (virtual image display distance) or a stepwise increase.

次に、図8を参照する。図8(A)、(B)は路面に張り付くように虚像を表示する場合の表示例を示す図、図8(C)~(E)は、ウインドシールドを介してユーザーが視認する虚像の他の例を示す図である。 Next, refer to FIG. 8(A) and 8(B) are diagrams showing display examples when a virtual image is displayed so as to stick to the road surface, and FIG. FIG.

図8(A)の例では、虚像表示面PSが、路面40上に水平に重なるようにして延在している。これによって、路面に画像を重畳させて表示すること(路面重畳画像の表示)が可能となる。なお、虚像表示面PSは、全部(又は一部)が路面40の下に位置するようにしてもよい。虚像表示面が路面の下に位置したとしても、人は、像が路面の下にならないことを知っていることから、上記の場合は、虚像が路面に張り付いているように知覚することになる。よって、路面に隙間なく重畳する表示が可能である。 In the example of FIG. 8(A), the virtual image display surface PS extends horizontally overlapping the road surface 40. In the example shown in FIG. This makes it possible to display an image superimposed on the road surface (display of a road surface superimposed image). Note that the virtual image display surface PS may be entirely (or partially) located below the road surface 40. Even if the virtual image display surface is located below the road surface, people know that the image will not be below the road surface, so in the above case, people will perceive the virtual image as being stuck to the road surface. Become. Therefore, it is possible to display a display that overlaps the road surface without any gaps.

図8(B)では、虚像表示面PSが、路面40の近くにおいて、やや傾斜して設定されている。遠端部の路面からの浮き上がりを抑えた方がよいときは、虚像表示面PSの一部(近端部付近)を路面40の下に位置させればよい。 In FIG. 8(B), the virtual image display surface PS is set to be slightly inclined near the road surface 40. When it is better to suppress the far end from rising from the road surface, a part of the virtual image display surface PS (near the near end) may be positioned below the road surface 40.

図8(C)の例では、ウインドシールド2の虚像表示領域3において、第1の領域Z1の右側には車速表示SP(第1の虚像V1)が表示されており、その左側において、第1の領域Z1から第2の領域Z2の奥側へと、車両1の進行方向に沿って延びる、左折を促すナビゲーション用矢印71(第1、第2の虚像V1、V2を含む)が表示されている。 In the example of FIG. 8(C), in the virtual image display area 3 of the windshield 2, the vehicle speed display SP (first virtual image V1) is displayed on the right side of the first area Z1, and the first A navigation arrow 71 (including first and second virtual images V1 and V2) extending along the traveling direction of the vehicle 1 from the area Z1 to the back side of the second area Z2 and prompting a left turn is displayed. There is.

車速表示SPは鮮明度が高く、視認性に優れる。また、ナビゲーション用矢印71は、車両1に近い側に基端部71aが存在し、遠い側に先端部71bが存在する。基端部71aは鮮明に表示され、先端部71bは距離に応じてぼかされて表示され、71aと71bの中間の領域では、距離に応じて自然なぼかしが入った表示となり、自然な遠近感のある表示が、かなりの広範囲にわたって実現されている。なお、Z1は第1の表示領域を示し、Z2は第2の表示領域を示す。 The vehicle speed display SP has high clarity and excellent visibility. Further, the navigation arrow 71 has a base end 71a on the side closer to the vehicle 1, and a tip end 71b on the far side. The proximal end 71a is displayed clearly, the distal end 71b is displayed blurred according to the distance, and in the area between 71a and 71b, the display is naturally blurred according to the distance, giving a natural perspective. Displays with a sense of feeling have been realized over a fairly wide range of areas. Note that Z1 indicates a first display area, and Z2 indicates a second display area.

図8(D)の例では、車両誘導用の表示73(第1、第2の虚像V1、V2を含む)が、路面40に重畳されて表示されている。車両誘導用の表示73は、基端部73aと先端部73bを有するが、73aは鮮明に表示され、73aから73bに向かうにつれて、ぼかし量が増大し、従って、目の疲労が少なく、かつ遠近感に優れた表示が実現される。 In the example of FIG. 8(D), a vehicle guidance display 73 (including first and second virtual images V1 and V2) is displayed superimposed on the road surface 40. The display 73 for vehicle guidance has a base end 73a and a tip end 73b, and 73a is displayed clearly, and the amount of blur increases from 73a to 73b, so that eye fatigue is reduced and distance is improved. A display with an excellent feel is realized.

図8(E)の例では、遠方の右上に標識75が表示され、その標識75より手前の左側に、高速道路の出口(降り口)77を示す円形のマーク78が表示されている。 In the example of FIG. 8E, a sign 75 is displayed in the far upper right corner, and a circular mark 78 indicating an expressway exit 77 is displayed on the left side in front of the sign 75.

また、ある時点では、出口(EXIT)を示す車両誘導用の標識79が路面40に重畳されて、第2の領域Z2に表示されている。時間の経過と共に(言い換えれば、車両1の進行に合わせて)、その標識79が、車両1に近づくように、言い換えれば第1の領域Z1に向かうように移動する。その移動に伴い、標識79のぼかしの程度が徐々に減少し、鮮明度が増してくるので、ユーザーには自然な視覚が与えられる。 Furthermore, at a certain point in time, a vehicle guidance sign 79 indicating an exit (EXIT) is superimposed on the road surface 40 and displayed in the second region Z2. As time passes (in other words, as the vehicle 1 advances), the sign 79 moves closer to the vehicle 1, in other words, toward the first region Z1. As the sign 79 moves, the degree of blurring of the sign 79 gradually decreases and its sharpness increases, giving the user a natural vision.

一方、高速道路の出口(降り口)77を示す円形のマーク78であるが、仮に、出口77で進入できずに通り過ぎてしまうと、ユーザーは次の出口まで行って再び戻ってくるという大きな負担を負うことになり、この運転シーンは、重大性(あるいは緊急性)が高い運転シーンということになる。 On the other hand, there is a circular mark 78 indicating the exit (exit) 77 of the expressway, but if the user is unable to enter at exit 77 and passes by, the user will have to go to the next exit and come back again, which is a huge burden. Therefore, this driving scene is a driving scene with high severity (or urgency).

ここで、円形のマーク78は、出口77が遠方にある場合であっても鮮明に表示した方がよいのであれば、表示制御部300は、円形のマーク78については、個別に画像処理を行い、ぼかしのない鮮明な虚像とする画像処理(ぼかしを抑制する表示制御)を実施してもよい。 Here, if it is better to display the circular mark 78 clearly even if the exit 77 is far away, the display control unit 300 performs image processing on the circular mark 78 individually. , image processing (display control to suppress blur) may be performed to create a clear virtual image without blur.

遠方の表示に対しては、原則として自然なぼかしを実現するが、場合によっては、そのぼかしが不要となることもある。例えば、上記のような重要な運転シーンの場合、あるいは、遠方に障害物があることを報知するために注意喚起マークを表示するような場合(危険報知の場合)や、高速道路の出口の報知のように重要度の高い表示の場合等である。このようなときは、表示制御部300が、個別に画像処理を行って、ぼかしを抑制し、鮮明度を増す補正を行うことで、個別に救済することで、本実施形態の光学系を使用した場合の悪影響が発生しないようにすることができる。この場合でも、個別の画像処理であることから、画像処理ソフトウエアやハードウエアの負担はそれほど増大しないので、問題は生じない。 In principle, natural blurring is achieved for distant displays, but in some cases, such blurring may not be necessary. For example, in the case of important driving scenes such as those mentioned above, or when displaying a caution mark to notify of an obstacle in the distance (in the case of danger warning), or when notifying an exit of an expressway. This is the case for highly important displays such as. In such a case, the display control unit 300 performs individual image processing to suppress blurring and perform correction to increase sharpness. This can prevent any negative effects from occurring. Even in this case, since the image processing is done individually, the load on the image processing software and hardware does not increase significantly, so no problem occurs.

次に、図9を参照する。図9(A)は、HUD装置のシステム構成の一例を示す図、図9(B)は、表示制御部の構成例を示す図である。 Next, refer to FIG. FIG. 9(A) is a diagram showing an example of a system configuration of a HUD device, and FIG. 9(B) is a diagram showing an example of a configuration of a display control section.

図9(A)に示されるシステムは、制御部290に含まれる表示制御部(表示制御装置)300と、対象物検出部801と、車両情報検出部803と、先に図1や図6に示した立体表示装置230(表示部(ディスプレイ)210を含む)と、第1アクチュエータ177と、第2アクチュエータ179と、を有する。 The system shown in FIG. 9A includes a display control unit (display control device) 300 included in the control unit 290, an object detection unit 801, a vehicle information detection unit 803, and the system shown in FIGS. It includes the illustrated stereoscopic display device 230 (including the display section (display) 210), a first actuator 177, and a second actuator 179.

表示制御部(表示制御装置)300は、I/Oインターフェース741と、プロセッサ742と、メモリ743を有する。表示制御部(表示制御装置)300、対象物検出部801及び車両情報検出部803は、通信線(BUS等)に接続されている。 The display control unit (display control device) 300 includes an I/O interface 741, a processor 742, and a memory 743. The display control unit (display control device) 300, the object detection unit 801, and the vehicle information detection unit 803 are connected to a communication line (BUS, etc.).

また、第1アクチュエータ177、第2アクチュエータ179は、図6に示した回転部(回動機構)175や調整部173として利用することができる。これらは、光学系あるいは表示部の調整系ということもできる。 Further, the first actuator 177 and the second actuator 179 can be used as the rotating section (rotating mechanism) 175 and the adjusting section 173 shown in FIG. These can also be called an optical system or an adjustment system for the display section.

また、対象物検出部801は、例えば、車両1に設けられた車外センサ、車外カメラ等にて構成することができる。また、車両情報検出部803は、例えば、速度センサ、車両ECU、車外通信機器、目の位置を検出するセンサ、車両1のピッチ角(傾斜角)を検出するヨートレートセンサ等、あるいは、ハイトセンサにより構成することができる。表示制御部(表示制御装置)300は、対象物検出部801の検出情報や、車両情報検出部803からの情報に基づいて、例えば、表示対象について、個別にぼかしの程度を調整する画像処理を実施し、適切な遠近感の表示と、ユーザーへの情報の確実な報知とを両立させるのが好ましい。 Further, the object detection unit 801 can be configured with, for example, an external sensor, an external camera, etc. provided in the vehicle 1. The vehicle information detection unit 803 may include, for example, a speed sensor, a vehicle ECU, an external communication device, a sensor that detects the position of the eyes, a yaw rate sensor that detects the pitch angle (inclination angle) of the vehicle 1, or a height sensor. It can be configured by The display control unit (display control device) 300 performs, for example, image processing to individually adjust the degree of blurring of the display target based on the detection information of the target object detection unit 801 and the information from the vehicle information detection unit 803. It is preferable to implement this method to achieve both display of appropriate perspective and reliable notification of information to the user.

また、1つ又はそれ以上のプロセッサ742は、例えば、路面40の位置情報を取得し、取得した情報に基づいて、第1、第2のアクチュエータ177、179のうちの少なくとも一方を駆動し、虚像表示位置の調整等を実行することも可能である。 Further, one or more processors 742 may, for example, acquire positional information on the road surface 40, drive at least one of the first and second actuators 177 and 179 based on the acquired information, and drive the virtual image. It is also possible to adjust the display position, etc.

図9(B)を参照する。図9(B)に示されるように、表示制御部(表示制御装置)300は、画像生成部(左目用/右目用画像生成部)310と、画像蓄積部(画像データベース)312と、左目用画像バッファ332と、右目用画像バッファ334と、画像インターフェース(I/F)336と、を有している。画像蓄積部(画像データベース)302には、表示対象についての、虚像表示距離に応じた視差画像サンプル等が記憶されている。画像生成部310は、その視差画像サンプルを読み出し、適宜、微調整等して表示するべき視差画像を生成する。その視差画像は、左右の各目用の画像バッファ332、334に一時的に蓄積された後、画像I/F336を介して、左目用視差画像GL及び右目用視差画像GRが表示部(ディスプレイ)210に供給される。 Refer to FIG. 9(B). As shown in FIG. 9B, the display control unit (display control device) 300 includes an image generation unit (left eye/right eye image generation unit) 310, an image storage unit (image database) 312, and a left eye image generation unit (image generation unit for left eye/right eye). It has an image buffer 332, a right eye image buffer 334, and an image interface (I/F) 336. The image storage unit (image database) 302 stores parallax image samples and the like corresponding to the virtual image display distance for the display target. The image generation unit 310 reads out the parallax image sample, makes fine adjustments as appropriate, and generates a parallax image to be displayed. The parallax images are temporarily stored in the image buffers 332 and 334 for the left and right eyes, and then the left-eye parallax image GL and the right-eye parallax image GR are displayed on the display unit (display) via the image I/F 336. 210.

また、車両1には、ユーザーの目を撮像する瞳検出カメラ900と、ユーザーの視点位置を検出する視点位置検出部902と、が備えられている(全体構成は図9参照)。視点位置検出部902によって検出された視点位置の情報は、適宜、画像生成部310に供給される。画像生成部310は、視点位置の情報に基づいて、左目用/右目用の各画像を微調整等することができる。 The vehicle 1 is also equipped with a pupil detection camera 900 that captures images of the user's eyes, and a viewpoint position detection unit 902 that detects the user's viewpoint position (see FIG. 9 for the overall configuration). Information on the viewpoint position detected by the viewpoint position detection unit 902 is supplied to the image generation unit 310 as appropriate. The image generation unit 310 can finely adjust each image for the left eye/right eye based on the information on the viewpoint position.

次に、図10を参照する。図10は、HUD装置の全体の構成の一例を示す図である。前掲の図と同じ箇所には同じ符号を付している。また、図10では光学系52が設けられるが、この光学系52の構成として、先に図1(B)や図6で示したものと同様の構成が採用され得る。立体表示装置231についても同様である。 Next, refer to FIG. FIG. 10 is a diagram showing an example of the overall configuration of the HUD device. The same parts as in the previous figure are given the same symbols. Further, although an optical system 52 is provided in FIG. 10, the same configuration as that shown in FIG. 1(B) and FIG. 6 above may be adopted as the configuration of this optical system 52. The same applies to the stereoscopic display device 231.

図10の例では、光学系52と、立体表示装置231と、前方撮像カメラ17による撮像画像に基づいて画像処理を行う画像処理部21を有する運転シーン判定部19と、ナビゲーション部(ナビゲーションECU)400と、が設けられる。 In the example of FIG. 10, an optical system 52, a stereoscopic display device 231, a driving scene determination unit 19 having an image processing unit 21 that performs image processing based on an image captured by the front imaging camera 17, and a navigation unit (navigation ECU) 400 are provided.

表示制御部(制御部)300は、画像インターフェース(I/F)336と、駆動部33と、虚像表示位置制御部34と、画像生成部310と、表示対象の適切な解像度を判定して第1、第2の何れの虚像として表示するのが好ましいかを判定したり、あるいはその重要度、緊急度等を判定したりする、表示対象の属性判定部36と、各種情報取得部39(車両1のピッチ角を算出等により取得するピッチ角取得部38を含む)と、を有する。 The display control unit (control unit) 300, together with an image interface (I/F) 336, a drive unit 33, a virtual image display position control unit 34, and an image generation unit 310, determines the appropriate resolution of the display target and performs the A display target attribute determining unit 36, which determines which of the first and second virtual images is preferable to display, or determines its importance, urgency, etc., and a various information acquisition unit 39 (vehicle a pitch angle acquisition unit 38 that acquires the pitch angle of 1 by calculation or the like.

また、瞳検出カメラ900は、運転者(ユーザー)22の目を撮像し、視点位置検出部902は、瞳の撮像情報に基づいて運転者22の視点位置を検出する。検出された視点位置の情報は、適宜、画像生成部310に供給される。 Further, the pupil detection camera 900 images the eyes of the driver (user) 22, and the viewpoint position detection unit 902 detects the viewpoint position of the driver 22 based on the pupil imaging information. Information on the detected viewpoint position is supplied to the image generation unit 310 as appropriate.

ナビゲーション部(ナビゲーションECU)400は、奥行きマッピング部402と、ナビ情報(道路案内情報、道路標識情報等)生成部404と、運転経路情報取得部406と、自車両位置情報取得部408と、地図情報取得部410と、記憶部(地図、道路案内情報、道路標識等のデータベースとして機能する)412と、を有する。ナビゲーション部(ナビゲーションECU)400には、車載ECU700が収集した車両情報等が、バス(BUS)を介して供給される。 The navigation unit (navigation ECU) 400 includes a depth mapping unit 402, a navigation information (road guide information, road sign information, etc.) generation unit 404, a driving route information acquisition unit 406, an own vehicle position information acquisition unit 408, and a map generation unit 404. It includes an information acquisition section 410 and a storage section 412 (functioning as a database of maps, road guide information, road signs, etc.). The navigation unit (navigation ECU) 400 is supplied with vehicle information and the like collected by the in-vehicle ECU 700 via a bus (BUS).

また、通信部500が、例えば、車両10の外部に設置されている運転支援システム(又は他車に搭載されているADASシステム等)600との無線通信によって取得した各種の情報を、適宜、ナビゲーション部400の自車両位置情報取得部408及び地図情報取得部410に供給するようにしてもよい。また、GPS受信部502がGPS衛星から受信した位置情報等を、適宜、ナビゲーション部400の自車両位置情報取得部408及び地図情報取得部410に供給するようにしてもよい。 Further, the communication unit 500 may transmit various information acquired through wireless communication with a driving support system 600 installed outside the vehicle 10 (or an ADAS system installed in another vehicle, etc.) as appropriate to the navigation system. The information may be supplied to the own vehicle position information acquisition section 408 and the map information acquisition section 410 of the section 400. Further, the position information etc. received by the GPS reception unit 502 from the GPS satellites may be supplied to the host vehicle position information acquisition unit 408 and the map information acquisition unit 410 of the navigation unit 400 as appropriate.

また、車両1には、各種センサ(ピッチ角検出用のヨートレートセンサ等を含めることができる)505が設けられている。また、車載ECU700により収集される各種の情報は、BUSを介してナビゲーション部400に供給され、また、各種情報の一部(符号J0で示している)は、ピッチ角取得部38及び各種情報取得部39にも供給される。情報J0には、現在の運転シーンにおける前方や後方、車両の周囲等における危険情報や、運転者に報知すべき情報の重要度判定の結果も含ませることができる。 The vehicle 1 is also provided with various sensors 505 (including a yaw rate sensor for pitch angle detection, etc.). Further, various types of information collected by the in-vehicle ECU 700 are supplied to the navigation section 400 via the BUS, and some of the various information (indicated by reference numeral J0) is transmitted to the pitch angle acquisition section 38 and various information acquisition section 38. It is also supplied to section 39. The information J0 can also include danger information in front, behind, around the vehicle, etc. in the current driving scene, and the results of determining the importance of information that should be reported to the driver.

表示制御部300は、この危険の程度や重要性の程度の情報を参照して、危険度や重要度の高い事象に関する表示については、表示の遠近に関係なく、解像度(鮮明度)を上昇させたり、特別の強調処理を実行させたりするなどして、運転者への的確で迅速な情報の提供を実現してもよい。また、悪天候などで、運転者の視認性が通常時に比べて低下していると判断されるときは、虚像表示の鮮明度を高める等の画像処理を、適宜、行うこともできる。 The display control unit 300 refers to the information on the degree of danger and the degree of importance, and increases the resolution (clarity) of a display regarding an event with a high degree of danger or importance, regardless of the distance of the display. Accurate and prompt information provision to the driver may be realized by performing special emphasis processing. Further, when it is determined that the driver's visibility is lower than usual due to bad weather, image processing such as increasing the clarity of the virtual image display can be performed as appropriate.

表示制御部300において、各種情報取得部39に含まれるピッチ角取得部38は、画像処理部21から供給される画像情報、及び車載ECU700から供給される各種センサの情報等に基づいて、車両1の現在のピッチ角(言い換えれば車両1の傾斜)を算出する。 In the display control unit 300, the pitch angle acquisition unit 38 included in the various information acquisition unit 39 determines the pitch angle of the vehicle 1 based on the image information supplied from the image processing unit 21, the information of various sensors supplied from the in-vehicle ECU 700, etc. The current pitch angle (in other words, the inclination of the vehicle 1) of the vehicle 1 is calculated.

また、虚像表示位置制御部34は、例えば、運転シーン判定部19から提供される情報によって、車両1が例えば登り坂(あるいは下り坂)にさしかかっていると判定されるときは、ピッチ角等を考慮して、虚像の表示位置(路面に対する相対位置)を調整(補正)する。また、ナビゲーション部(ナビゲーションECU)400から供給される、表示対象である情報画像(ナビ情報等)の奥行き情報等に基づいて、虚像の表示位置を適宜、調整する。 Further, when it is determined that the vehicle 1 is approaching an uphill slope (or a downhill slope), for example, based on information provided from the driving scene determination unit 19, the virtual image display position control unit 34 adjusts the pitch angle, etc. Taking this into consideration, the display position of the virtual image (relative position to the road surface) is adjusted (corrected). Furthermore, the display position of the virtual image is adjusted as appropriate based on the depth information of the information image (navigation information, etc.) to be displayed, which is supplied from the navigation unit (navigation ECU) 400.

画像生成部310は、入力される各種情報に基づいて、表示面215に表示する左目用/右目用の各画像を生成する。生成された各画像は、画像I/F336に供給される。画像I/F336は、視差画像(視差原画像)のデータcvを、立体表示装置231の表示部210(図6参照)に供給する。また、駆動部33は、例えば、曲面ミラー(凹面鏡)170を回動させるための制御信号等rvsを、アクチュエータ(例えば図6の符号173及び175の少なくとも1つ)に供給する。 The image generation unit 310 generates left-eye/right-eye images to be displayed on the display surface 215 based on various input information. Each generated image is supplied to the image I/F 336. The image I/F 336 supplies data cv of the parallax image (original parallax image) to the display unit 210 (see FIG. 6) of the stereoscopic display device 231. Further, the drive unit 33 supplies, for example, a control signal rvs for rotating the curved mirror (concave mirror) 170 to an actuator (for example, at least one of the reference numerals 173 and 175 in FIG. 6).

次に、図11を参照する。図11は、表示制御部による表示処理の手順の一例を示すフローチャートである。 Next, refer to FIG. 11. FIG. 11 is a flowchart illustrating an example of the procedure of display processing by the display control unit.

まず、車両のピッチ角を取得する(ステップS1)。次に、車両のピッチ角(傾き角)等を考慮して、虚像表示面の位置調整(位置補正)を行う(ステップS2)。次に、虚像表示面の手前に結像させることを想定して画像を描画した左目用/右目用の各画像を、表示部の表示面に表示する(ステップS3)。 First, the pitch angle of the vehicle is acquired (step S1). Next, the position of the virtual image display surface is adjusted (position corrected) in consideration of the pitch angle (tilt angle) of the vehicle, etc. (step S2). Next, each image for the left eye/right eye is displayed on the display surface of the display unit, in which images are drawn on the assumption that the images will be formed in front of the virtual image display surface (step S3).

以上説明したように、本発明の実施形態によれば、運転者の目の疲労を軽減することが可能なHUD装置を提供することができる。 As described above, according to the embodiments of the present invention, it is possible to provide a HUD device that can reduce eye fatigue of a driver.

例えば、自車両からの距離が近い表示と遠い表示とが同時に表示されてユーザーがそれらを対比して見ることができるような場合においても、表示の鮮明度が一律ではなく、距離に応じた自然なぼかしの表示を視認でき、違和感が生じず、目の疲れを軽減することも可能である。 For example, even if a display that is near and far from the host vehicle is displayed at the same time so that the user can compare and contrast them, the clarity of the display is not uniform, and the display varies depending on the distance. The blurred display can be visually recognized without causing any discomfort, and it is also possible to reduce eye fatigue.

また、1つの表示が、時間の経過と共に自車両に近づいてくるような表示(表示の移動制御)を行う場合においても、ユーザーが過去の表示と現時点の表示とを対比できることから、上記の場合と同じ問題が生じ得るが、本実施形態によれば、自然な遠近感が得られ、上記の場合と同様の効果が得られ、特に問題は生じない。 In addition, even when one display approaches the own vehicle over time (display movement control), the user can compare the past display with the current display, so in the above case However, according to this embodiment, a natural sense of perspective can be obtained, and the same effect as in the above case can be obtained, and no particular problem occurs.

また、本発明の実施形態によれば、鮮明度の高い表示と自然なぼかしの表示とを併用することで、多様な表示が可能となり、HUD装置の表現力(あるいは演出力)を向上させることも可能である。 Furthermore, according to the embodiments of the present invention, by using both a high-definition display and a naturally blurred display, a variety of displays are possible, and the expressive power (or production power) of the HUD device is improved. is also possible.

本明細書において、車両という用語は、広義に、乗り物としても解釈し得るものである。また、ナビゲーションに関する用語(例えば標識等)についても、例えば、車両の運行に役立つ広義のナビゲーション情報という観点等も考慮し、広義に解釈するものとする。また、HUD装置には、シミュレータ(例えば、航空機のシミュレータ)として使用されるものも含まれるものとする。また、表示部や光学部材の種類は、上記の実施形態に限定されるものではなく、種々のものを採用することができる。 In this specification, the term vehicle can also be broadly interpreted as a vehicle. In addition, terms related to navigation (for example, signs, etc.) shall be interpreted in a broad sense, taking into account, for example, the perspective of navigation information in a broad sense that is useful for vehicle operation. Further, HUD devices include those used as simulators (for example, aircraft simulators). Further, the types of the display section and optical members are not limited to those in the above embodiments, and various types can be adopted.

本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。 The invention is not limited to the exemplary embodiments described above, and those skilled in the art will be able to easily modify the exemplary embodiments described above to the extent that they fall within the scope of the claims. .

1・・・車両(自車両)、2・・・被投影部材(ウインドシールド等)、3・・・虚像表示領域、7・・・ステアリングホイール、9・・・操作部、11・・・フロントパネル、13・・・表示器(表示パネル等)、17・・・前方撮像カメラ、19・・・運転シーン判定部、21・・・画像処理部、22・・・ユーザー、336・・画像I/F、33・・・駆動部、34・・・虚像表示位置制御部、310・・画像生成部、36・・・表示対象の属性判定部、38・・・ピッチ角取得部、39・・・各種情報取得部、40・・・道路の路面、52・・・HUD装置の光学系、101・・・HUD装置(立体視HUD装置)、210・・・表示部(フラットパネルディスプレイ等)、220・・・光学部材、(レンチキュラレンズ、光線分離部、レンチキュラレンズ部)、230・・・立体表示部(3Dディスプレイ部)、231・・・立体表示装置(3Dディスプレイ)、171・・・曲面ミラー(凹面鏡等)、290・・・制御部、300・・・表示制御部(制御部、又は表示制御装置)、400・・・ナビゲーション部(ナビゲーションECU)、500・・・通信部、502・・・GPS受信部、505・・・各種センサ、600・・・運転支援システム、700・・・車載ECU、902・・・視点位置検出部、RS・・・光学部材(立体光学部材)、V1・・・第1の虚像、V2・・・第2の虚像、VT・・・結像面、GL・・・左目用画像、GR・・・右目用画像
DESCRIPTION OF SYMBOLS 1...Vehicle (own vehicle), 2...Projected member (windshield, etc.), 3...Virtual image display area, 7...Steering wheel, 9...Operation unit, 11...Front Panel, 13...Display device (display panel, etc.), 17...Front imaging camera, 19...Driving scene determination unit, 21...Image processing unit, 22...User, 336...Image I /F, 33...Drive unit, 34...Virtual image display position control unit, 310...Image generation unit, 36...Display target attribute determination unit, 38...Pitch angle acquisition unit, 39... - Various information acquisition units, 40... Road surface, 52... Optical system of HUD device, 101... HUD device (stereoscopic HUD device), 210... Display unit (flat panel display, etc.), 220... Optical member, (lenticular lens, light beam separating section, lenticular lens section), 230... Stereoscopic display section (3D display section), 231... Stereoscopic display device (3D display), 171... Curved surface Mirror (concave mirror, etc.), 290... Control unit, 300... Display control unit (control unit or display control device), 400... Navigation unit (navigation ECU), 500... Communication unit, 502. ...GPS receiving unit, 505...Various sensors, 600...Driving support system, 700...In-vehicle ECU, 902...Viewpoint position detection unit, RS...Optical member (stereoscopic optical member), V1 ...first virtual image, V2...second virtual image, VT...imaging plane, GL...image for left eye, GR...image for right eye

Claims (6)

車両に搭載され、画像を、前記車両に備わる被投影部材に投影することで、運転者に前記画像の虚像を視認させるヘッドアップディスプレイ(HUD)装置であって、
左目用/右目用の各画像を表示する表示面を備える表示部と、
前記表示部に接触して、又は近接して配置され、前記左目用/右目用の各画像の各光線を分離する光線分離機能をもつ光学部材と、
前記画像の表示光を反射して、前記被投影部材に投影する光学部材を含む光学系と、
前記表示部の画像表示を制御する表示制御部と、
を有し、
前記表示部の前記表示面は、前記光系の光軸に対して傾斜して配置され、
前記表示面と光学的共役である虚像表示面は、前記運転者に遠い側の端部である遠端部と路面との距離が、前記運転者に近い側の端部である近端部と前記路面との距離よりも大きくなるように、前記路面に対して傾斜して配置される平面又は曲面、又は、前記路面に重畳されるように配置される平面又は曲面であり、
前記左目用/右目用の各画像に基づいて得られる視差画像と光学的共役である結像面は、前記虚像表示面よりも前記運転者から見て手前側にあり、かつ、前記虚像表示面との間隔が、手前から奥側に向かうにつれて増大する平面又は曲面であり、
前記表示制御部は、前記表示面に前記左目用/右目用の各画像を表示させるとき、前記視差画像が、前記結像面に結像されることを想定した表示制御を実施する、
ことを特徴とするヘッドアップディスプレイ装置。
A head-up display (HUD) device that is mounted on a vehicle and projects an image onto a projection member provided in the vehicle to allow a driver to visually recognize a virtual image of the image,
a display unit including a display surface that displays images for the left eye and for the right eye;
an optical member that is disposed in contact with or in close proximity to the display section and has a light beam separation function that separates each light beam of each image for the left eye/right eye;
an optical system including an optical member that reflects display light of the image and projects it onto the projection target member;
a display control unit that controls image display on the display unit;
has
The display surface of the display section is arranged obliquely with respect to the optical axis of the optical system,
The virtual image display surface, which is optically conjugate with the display surface, has a distance between the far end, which is the end farthest from the driver, and the road surface, and the near end, which is the end near the driver. A plane or curved surface arranged at an angle with respect to the road surface so as to be larger than a distance from the road surface, or a plane or curved surface arranged so as to be superimposed on the road surface,
An imaging plane that is optically conjugate with the parallax image obtained based on the left-eye/right-eye images is located closer to the driver than the virtual image display plane, and is located closer to the driver than the virtual image display plane. A flat or curved surface in which the distance from the front increases from the front to the back ,
The display control unit performs display control assuming that the parallax image is imaged on the imaging plane when displaying the left-eye/right-eye images on the display surface.
A head-up display device characterized by:
前記虚像表示面における前記近端部側に位置する第1の領域のぼかしの程度に対して、前記第1の領域よりも前記遠端部側に位置する第2の領域のぼかしの程度の方が大きい
ことを特徴とする、請求項1に記載のヘッドアップディスプレイ装置。
The degree of blur in a second region located closer to the far end than the first region is greater than the degree of blur in the first region located closer to the near end on the virtual image display surface. The head-up display device according to claim 1, characterized in that: is large.
前記虚像表示面に表示される虚像と、前記運転者の視点、又は前記車両の所定の基準点との間の距離である虚像表示距離の増大に伴い、前記虚像におけるぼかしの程度も増大することを特徴とする、請求項1又は2に記載のヘッドアップディスプレイ装置。 As the virtual image display distance, which is the distance between the virtual image displayed on the virtual image display surface and the driver's viewpoint or a predetermined reference point of the vehicle, increases, the degree of blur in the virtual image also increases. The head-up display device according to claim 1 or 2, characterized by: 前記表示制御部は、前記虚像表示面におけるぼかしの程度が少ない領域に、前記運転者に情報を正確に伝えることが重視される表示対象についての虚像を表示させ、
ぼかしの程度が多い領域に、前記運転者に違和感のない視覚を与えることが重視される表示対象についての虚像を表示させる、ことを特徴とする、請求項2又は3に記載のヘッドアップディスプレイ装置。
The display control unit displays a virtual image of a display target for which it is important to accurately convey information to the driver in an area with a low degree of blur on the virtual image display surface,
The head-up display device according to claim 2 or 3, characterized in that a virtual image of a display target for which it is important to provide the driver with a sense of discomfort is displayed in an area where the degree of blur is high. .
前記表示制御部は、前記虚像表示面上で、表示している虚像が時間経過と共に前記車両に近づくように移動させる表示制御を実行することを特徴とする、請求項1乃至4の何れか1項に記載のヘッドアップディスプレイ装置。 5. Any one of claims 1 to 4, wherein the display control unit executes display control on the virtual image display surface such that the displayed virtual image moves closer to the vehicle over time. Head-up display device as described in Section. 前記表示制御部は、前記虚像表示面における前記ぼかしの程度が多い領域に表示される虚像が、緊急度又は重要度が通常よりも高いと判定される虚像であるときは、ぼかしの程度を低減する表示制御を実施することを特徴とする、請求項1乃至5の何れか1項に記載のヘッドアップディスプレイ装置。 The display control unit reduces the degree of blurring when the virtual image displayed in the area of the virtual image display surface where the degree of blurring is high is determined to have a higher degree of urgency or importance than usual. The head-up display device according to any one of claims 1 to 5, wherein the head-up display device performs display control to perform display control.
JP2020004625A 2020-01-15 2020-01-15 heads up display device Active JP7354846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020004625A JP7354846B2 (en) 2020-01-15 2020-01-15 heads up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020004625A JP7354846B2 (en) 2020-01-15 2020-01-15 heads up display device

Publications (2)

Publication Number Publication Date
JP2021110904A JP2021110904A (en) 2021-08-02
JP7354846B2 true JP7354846B2 (en) 2023-10-03

Family

ID=77060635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004625A Active JP7354846B2 (en) 2020-01-15 2020-01-15 heads up display device

Country Status (1)

Country Link
JP (1) JP7354846B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145857A1 (en) * 2022-01-28 2023-08-03 日本精機株式会社 Display system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091333A (en) 2004-09-22 2006-04-06 Nikon Corp Three-dimensional video display device
JP2014150304A (en) 2013-01-31 2014-08-21 Nippon Seiki Co Ltd Display device and display method therefor
JP2019032467A (en) 2017-08-09 2019-02-28 株式会社デンソー Stereoscopic display device
US20190196189A1 (en) 2017-12-27 2019-06-27 Lg Display Co., Ltd. Heads-up display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091333A (en) 2004-09-22 2006-04-06 Nikon Corp Three-dimensional video display device
JP2014150304A (en) 2013-01-31 2014-08-21 Nippon Seiki Co Ltd Display device and display method therefor
JP2019032467A (en) 2017-08-09 2019-02-28 株式会社デンソー Stereoscopic display device
US20190196189A1 (en) 2017-12-27 2019-06-27 Lg Display Co., Ltd. Heads-up display device

Also Published As

Publication number Publication date
JP2021110904A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
WO2018142610A1 (en) Stereoscopic display device and head-up display
KR102116783B1 (en) Three dimentional head-up display for augmented reality at the driver's view point by positioning images on the ground
KR102397089B1 (en) Method of processing images and apparatus thereof
JP6105533B2 (en) Projection display device for vehicle
JP6105532B2 (en) Projection display device for vehicle
US11945306B2 (en) Method for operating a visual field display device for a motor vehicle
JP2019164317A (en) Image forming system, image correction system, image display system, movable body, image forming method, and program
US11506891B2 (en) Method for operating a visual field display device for a motor vehicle
JP7310817B2 (en) head-up display device
JP7358909B2 (en) Stereoscopic display device and head-up display device
JP4929768B2 (en) Visual information presentation device and visual information presentation method
JP7354846B2 (en) heads up display device
KR20180046567A (en) Apparatus and method for controlling head up display (hud) device in vehicle
JP7110968B2 (en) head-up display device
CN219676374U (en) Display device, head-up display device and vehicle
JP7005115B2 (en) Display device for vehicles
JP6105531B2 (en) Projection display device for vehicle
JP2020095271A (en) Device and method for displaying three-dimensional images
CN111727399A (en) Display system, mobile object, and design method
CN114127614B (en) Head-up display device
CN112526748A (en) Head-up display device, imaging system and vehicle
JP6628873B2 (en) Projection optical system, head-up display device, and automobile
CN217718280U (en) Head-up display system and automobile
JP2021051231A (en) Head-up display device
CN210666207U (en) Head-up display device, imaging system and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R150 Certificate of patent or registration of utility model

Ref document number: 7354846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150