JP7456290B2 - heads up display device - Google Patents

heads up display device Download PDF

Info

Publication number
JP7456290B2
JP7456290B2 JP2020093780A JP2020093780A JP7456290B2 JP 7456290 B2 JP7456290 B2 JP 7456290B2 JP 2020093780 A JP2020093780 A JP 2020093780A JP 2020093780 A JP2020093780 A JP 2020093780A JP 7456290 B2 JP7456290 B2 JP 7456290B2
Authority
JP
Japan
Prior art keywords
display
eye
pixels
image
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020093780A
Other languages
Japanese (ja)
Other versions
JP2021189279A (en
Inventor
誠 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020093780A priority Critical patent/JP7456290B2/en
Publication of JP2021189279A publication Critical patent/JP2021189279A/en
Application granted granted Critical
Publication of JP7456290B2 publication Critical patent/JP7456290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、虚像を表示するヘッドアップディスプレイ(Head-up Display:HUD)装置等に関し、例えば、ライトフィールド方式の立体表示部(ライトフィールドディスプレイ)等を有するHUD装置等に関する。 The present invention relates to a head-up display (HUD) device etc. that displays a virtual image, and for example, to a HUD device etc. having a light field type stereoscopic display section (light field display).

特許文献1には、ライトフィールドディスプレイを用いたHUD装置が示されている(例えば、図3~図6等)。 Patent Document 1 shows a HUD device that uses a light field display (see, for example, Figures 3 to 6).

特許第6580800号公報Patent No. 6580800

本発明者は、ライトフィールドレンダリングについて考察し、その結果として、以下の課題を認識した。以下、順を追って説明する。 The inventor considered light field rendering and as a result recognized the following problems. The following is a step-by-step explanation.

ライトフィールド方式の立体表示装置は、例えば、平面ディスプレイと、光線分離機能をもつ光学部材(レンチキュラレンズやパララックスバリア等)とを組み合わせて構成することができる。光学部材は、基本となる光学要素(微小レンズや遮蔽板等)が所定ピッチで水平方向に配列されて構成される。 A light field type 3D display device can be constructed, for example, by combining a flat display with an optical component (such as a lenticular lens or a parallax barrier) that has a light beam separation function. The optical component is constructed by arranging basic optical elements (such as microlenses or shielding plates) in the horizontal direction at a certain pitch.

一方、平面ディスプレイは、平面視で四角形の表示領域を有し、その四角形の横方向を水平方向とし、縦方向を垂直方向とする。また、平面ディスプレイの表示面に直交する線分(法線)に沿う方向であって、その表示面から離れる方向を奥行き方向とする。 On the other hand, a flat display has a rectangular display area when viewed from above, and the horizontal direction of the rectangle is the horizontal direction, and the vertical direction is the vertical direction. Further, a direction along a line segment (normal line) perpendicular to the display surface of a flat display and a direction away from the display surface is defined as a depth direction.

四角形の表示領域には、格子状に複数のピクセル(画素)が配置される。上記の光学部材における1つの光学要素には、一群のピクセル(又はサブピクセル:ピクセル又はサブピクセルを総称して「表示要素単位」、あるいは単に「要素単位」という場合がある)が対応する。ここでは、ピクセル単位で説明する。 A plurality of pixels are arranged in a grid pattern in the rectangular display area. One optical element in the above-mentioned optical member corresponds to a group of pixels (or sub-pixels; pixels or sub-pixels may be collectively referred to as "display element unit" or simply "element unit"). Here, explanation will be given in units of pixels.

上記の一群のピクセルの内で、水平方向の位置が所定距離(例えば1ピクセル分の距離)ずつずれた位置に配置される1~n(nは2以上の自然数であり、ここではn=5とする)個のピクセル(画素)があるとする。第1~第nの各ピクセルは、所定距離(例えば1ピクセル分の距離)だけ水平方向の位置がずれているため、各ピクセルが出射する代表的光線(例えば、各ピクセルが放つ光のうち、対応する微小レンズの中心を通る光線)を想定すると、各光線は、水平方向の位置を異にしながら、指向性をもって広がりながら進行する。 Among the above group of pixels, 1 to n (n is a natural number greater than or equal to 2, and here n=5 Suppose that there are () pixels. Since the positions of the first to nth pixels are shifted in the horizontal direction by a predetermined distance (for example, the distance of one pixel), the representative light rays emitted by each pixel (for example, among the light emitted by each pixel, Assuming that each light ray passes through the center of the corresponding microlens, each light ray travels while spreading out with directionality while changing its horizontal position.

HUD装置の場合、各光線は、さらに光学系を経て車両の被投影部材(ウインドシールドやコンバイナ等)に投影され、光の一部は被投影部材で反射されて、視認者(運転者等)の目に入射され、視認者の前方に像を結ぶことで、所定の虚像表示距離をもつ虚像が視認される。 In the case of a HUD device, each light beam passes through an optical system and is projected onto the vehicle's projected member (windshield, combiner, etc.), and a portion of the light is reflected by the projected member and is transmitted to the viewer (driver, etc.). By entering the eye of the viewer and focusing the image in front of the viewer, a virtual image having a predetermined virtual image display distance is visually recognized.

ここで、視認者の目がアイボックス内にあるとき、虚像を視認可能であるとする。また、そのアイボックスを、上記の水平方向(例えばレンチキュラレンズの円筒レンズの配列方向)に対応する方向(例えば車両の幅方向)に、等間隔で分割してm個(mは2以上の自然数:ここではm=5)の分割領域とした構成を想定する。 Here, it is assumed that the virtual image is visible when the viewer's eyes are in the eye box. In addition, the eye box is divided into m pieces at equal intervals in a direction (for example, the width direction of the vehicle) corresponding to the horizontal direction (for example, the arrangement direction of the cylindrical lenses of the lenticular lens) (m is a natural number of 2 or more). :Here, assume a configuration with divided regions of m=5).

上記第1~第n(n=5)の各ピクセルから出射された各光線は、乱されることなく理想的に進行したとすると、光学系、及び被投影部材を介して、第1~第mの各アイボックスの分割領域に到達する。 Assuming that each light ray emitted from each of the first to nth (n=5) pixels travels ideally without being disturbed, it passes through the optical system and the projected member to the first to nth (n=5) pixels. Each eyebox segmentation region of m is reached.

このように、理想的には、水平方向における位置を異にする第1~第nの各ピクセル(画素)と、水平方向に対応する方向に配置された第1~第mの各アイボックスの分割領域とは、1対1の対応づけが可能である。 In this way, ideally, each of the 1st to nth pixels (pixels) at different positions in the horizontal direction and each of the 1st to mth eyeboxes arranged in a direction corresponding to the horizontal direction. A one-to-one correspondence is possible with the divided areas.

しかし、実際は、HUD装置の光学系や車両の被投影部材が介在することから、何の対策も採られないとすれば、各光線の進路はかなり乱される。 However, in reality, the optical system of the HUD device and the projected parts of the vehicle are involved, and if no measures are taken, the path of each light beam will be significantly disrupted.

ここで、視認者の目の高さ位置に合わせて、光学系における曲面ミラー(凹面鏡等)の位置を変更(例えば、凹面鏡等をアクチュエータにより回転)したり、あるいは、大型の曲面ミラーは動かさずに、使用する反射面領域を変更したりすると、目の高さ位置に応じて、曲面ミラーにおける各光線の反射位置が異なることになる。反射面が平面であれば回転等による位置の移動があっても、上記の対応関係はそれほど崩れないと考えられるが、実際は、凹面鏡等は湾曲した(例えば部分円弧状、あるいは自由曲面等の断面の)形状の反射面をもつ。 Here, the position of the curved mirror (concave mirror, etc.) in the optical system may be changed (for example, the concave mirror, etc. may be rotated by an actuator) according to the viewer's eye level, or the large curved mirror may be left unchanged. Furthermore, if the reflective surface area to be used is changed, the reflection position of each light ray on the curved mirror will differ depending on the eye level position. If the reflecting surface is flat, the above relationship will not be significantly broken even if the reflecting surface is moved due to rotation, etc.; however, in reality, concave mirrors etc. ) has a reflective surface in the shape of

曲面ミラーの各反射位置に到来する光線の入射角と反射角は光線毎に異なり、また、各反射位置における曲面ミラーの湾曲形状等も異なる。よって、目の高さ位置に応じて凹面鏡等が移動(回転)されると、あるいは、平面ディスプレイの表示面での表示位置の変更等によって、凹面鏡等における表示光の反射位置が変更されると、光線の進行の乱れの傾向が、その都度、変わることになる。 The angle of incidence and angle of reflection of the light rays arriving at each reflection position of the curved mirror are different for each light ray, and the curved shape of the curved mirror at each reflection position is also different. Therefore, when a concave mirror, etc. is moved (rotated) according to the eye level position, or when the display position on the display surface of a flat display is changed, the reflection position of the display light on the concave mirror, etc. is changed. , the tendency of the disturbance in the progress of the light rays changes each time.

人の左右の目の間隔は狭いため、光線の進行方向がずれると、例えば、左目に入射されるべき光が右目に入射されてしまい、クロストークが発生する。また、左目用の光と右目用の光とが逆転してしまうと逆視が発生する。 Since the distance between the left and right eyes of a person is narrow, if the traveling directions of light rays deviate, for example, light that should be incident on the left eye may be incident on the right eye, causing crosstalk. Further, when the light for the left eye and the light for the right eye are reversed, reverse vision occurs.

例えば、目の高さ位置を、「高い」、「標準」、「低い」の3つに区分したとする。通常は、「標準」が最も使用頻度が高いと考えられることから、設計時には、「標準」を基準とした設計がなされてクロストーク等が、ある程度、抑制されたとしても、「高い」、あるいは「低い」の場合には、クロストークが増える、ということもあり得る。 For example, assume that the eye height positions are classified into three categories: "high", "standard", and "low". Normally, "standard" is considered to be used most frequently, so even if crosstalk etc. is suppressed to some extent by designing based on "standard", it is considered "high" or In the case of "low", it is possible that crosstalk increases.

また、例えば、視認者の目が、「標準」に対応したアイボックスの分割領域内にとどまっている場合においても、人の背の高さや姿勢等に応じて、そのアイボックスの分割領域内における目の高さ位置は、ばらつく。 For example, even if the viewer's eyes remain within the divided area of the eyebox corresponding to "standard", depending on the person's height and posture, The eye height position varies.

例えば、目の高さ位置は、そのアイボックスの分割領域内で、さらに「高部」、「中部」、「底部」等に区分できる。その各区分に応じて、曲面ミラー等における光線の反射位置が異なり、各光線の進行方向の変化の傾向は異なるものとなる。したがって、1つのアイボックスの分割領域内でも、目が、車両の高さ方向のどの位置にあるか、に応じてクロストーク等の程度が変化し、これに対しても対策するのが好ましい。以上のような課題が、本発明者の検討によって明らかとされた。 For example, the eye level position can be further divided into "high part", "middle part", "bottom part", etc. within the divided area of the eye box. According to each division, the reflection position of the light ray on the curved mirror etc. differs, and the tendency of change in the traveling direction of each light ray differs. Therefore, even within one divided area of an eye box, the degree of crosstalk etc. changes depending on where the eyes are located in the height direction of the vehicle, and it is preferable to take measures against this as well. The above-mentioned problems have been clarified through studies conducted by the present inventor.

本発明の目的の1つは、HUD装置において、視認者の目の高さ位置に応じてクロストーク等が発生することを抑制することである。 One of the objects of the present invention is to suppress the occurrence of crosstalk or the like depending on the eye level position of a viewer in a HUD device.

本発明の他の目的は、以下に例示する態様及び最良の実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。 Other objects of the invention will become apparent to those skilled in the art upon reference to the following illustrative aspects and best embodiment, and the accompanying drawings.

以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。
第1の態様において、ヘッドアップディスプレイ装置は、虚像を表示するヘッドアップディスプレイ(HUD)装置であって、
ディスプレイと、光学部材と、を含み、立体像の表示光を再現するライトフィールド方式の立体表示部と、
前記立体表示部により再現された前記表示光を被投影部材に投影する曲面ミラーを備える光学系と、
前記ディスプレイにおける画像の表示を制御する制御部と、
前記ディスプレイのピクセル又はサブピクセルを要素単位とするとき、所定の表示データによる表示がなされるべき要素単位を決めるLF補正値(Light Field rendering calibration parameter)を記憶する記憶部と、
を有し、
前記制御部は、
前記車両の高さ方向における視認者の目位置の情報、及び前記目位置を推定可能な情報の少なくとも1つによって定まる前記LF補正値を用いてライトフィールドレンダリングを実施する。
Below, embodiments according to the present invention will be illustrated in order to easily understand the outline of the present invention.
In a first aspect, the head-up display device is a head-up display (HUD) device that displays a virtual image,
a light field type stereoscopic display section that includes a display and an optical member and reproduces display light of a stereoscopic image;
an optical system including a curved mirror that projects the display light reproduced by the three-dimensional display unit onto a projection target member;
a control unit that controls display of images on the display;
When pixels or sub-pixels of the display are used as element units, a storage unit that stores an LF correction value (Light Field rendering calibration parameter) that determines an element unit in which display based on predetermined display data should be performed;
has
The control unit includes:
Light field rendering is performed using the LF correction value determined by at least one of information about the viewer's eye position in the height direction of the vehicle and information from which the eye position can be estimated.

第1の態様によれば、例えば、ディスプレイの表示面で水平方向に所定間隔ずつずれて配置される第1~第nの要素単位(ピクセル又はサブピクセル)と、水平方向に対応する方向に配置された第1~第mの各アイボックスの分割領域との対応関係が崩れた場合でも、視認者の目位置の情報及び目位置を推定可能な少なくとも1つの情報に基づいて適切なLF補正値データを選択し、そのLF補正値データを用いてライトフィールドレンダリングを実施することで、クロストークを抑制することができる。 According to the first aspect, even if the correspondence between the first to nth element units (pixels or subpixels) arranged at a predetermined interval in the horizontal direction on the display surface of the display and the divided regions of the first to mth eye boxes arranged in the corresponding horizontal direction is lost, crosstalk can be suppressed by selecting appropriate LF correction value data based on information on the viewer's eye position and at least one piece of information that can estimate the eye position, and performing light field rendering using the LF correction value data.

車両の高さ方向における視認者の目の位置が変更されると、例えば曲面ミラーが回転して表示光の反射位置が変更されたり、あるいは、大型の曲面ミラーは移動しないが、例えばディスプレイ上の画像の表示位置が変更されたりして、曲面ミラーにおける表示光の反射位置が変更され、光線の進路が変更され、ピクセルとアイボックスの分割領域との当初の対応関係は崩れる。しかし、どのように崩れる傾向があるかは、例えば設計段階で把握が可能である。よって、目位置を推定可能な情報や目位置の情報に基づいて、例えば、曲面ミラー等(光学部材のうちの重要なもの)の状態を把握し、あるいは推定し、その状態に対応するLF補正値を選択することで、適切なLF補正が可能である。 When the viewer's eye position in the vehicle height direction is changed, for example, the curved mirror may rotate and change the reflection position of the display light, or, even if the large curved mirror does not move, for example, the display position of the image on the display may change, changing the reflection position of the display light on the curved mirror and the path of the light rays, causing the initial correspondence between the pixels and the divided areas of the eye box to be lost. However, it is possible to grasp, for example, at the design stage, how this tends to break down. Therefore, appropriate LF correction can be performed by grasping or estimating the state of the curved mirror (an important optical component) based on information that can estimate the eye position or information on the eye position, and selecting an LF correction value that corresponds to that state.

ここで、上記の「所定の表示データによる表示がなされるべき要素単位(ピクセル又はサブピクセル)を決めるLF補正値」について補足説明しておく。例えば、レンチキュラレンズのピッチ、厚み、レンズの開始点などの情報に基づいて、所定画像の表示用のピクセルやサブピクセルの位置が決まる(但し、これは設計どおりのレンチキュラレンズが得られた場合である)。しかし、実際には製造ばらつきがあり、ピクセルやサブピクセルの位置がずれる。このずれを補正する機能として、HUD装置に備わるキャリブレーション機能が、本来的なLF補正機能である。但し、ピクセルやサブピクセルの位置のずれは、目位置の変更に伴う曲面ミラーの回転状態や、曲面ミラーにおける使用される反射領域の湾曲状態等によっても変わる。また、ウインドシールド等で発生する歪みを打ち消すような逆特性の歪みを事前に与えるワーピングの態様によっても、ピクセルやサブピクセルの位置のずれは影響を受ける。このような新規な知見に基づいて、第1の態様では、目位置や目位置を推定可能な情報に基づく適応的なLF補正を実施するものである(また、さらに好ましくは、事前歪みデータも適宜、変更することとするが、この点は後述する)。 Here, we will provide a supplementary explanation on the above-mentioned "LF correction value that determines the element unit (pixel or subpixel) to be displayed by the specified display data". For example, the position of the pixel or subpixel for displaying the specified image is determined based on information such as the pitch, thickness, and starting point of the lens of the lenticular lens (however, this is the case when the lenticular lens is obtained as designed). However, in reality, there is manufacturing variation, and the position of the pixel or subpixel is shifted. The calibration function provided in the HUD device as a function to correct this shift is the original LF correction function. However, the shift of the pixel or subpixel position also changes depending on the rotation state of the curved mirror accompanying the change of the eye position, the curvature state of the reflection area used in the curved mirror, etc. In addition, the shift of the pixel or subpixel position is also affected by the warping mode that gives in advance a distortion with an inverse characteristic that cancels the distortion generated by the windshield, etc. Based on such novel knowledge, in the first mode, adaptive LF correction is performed based on the eye position and information that can estimate the eye position (and more preferably, the pre-distortion data is also changed appropriately, but this point will be described later).

第1の態様に従属する第2の態様において、
前記記憶部は、前記被投影部材、及び前記光学系の少なくとも1つによる虚像の歪みを抑制するように、前記ディスプレイに表示する画像を歪ませる、前記視認者の目位置に対応付けられた複数の事前歪みデータ(ワーピングパラメータ)を記憶しており、
前記制御部は、前記車両の高さ方向における視認者の目位置の情報、及び前記目位置を推定可能な情報の少なくとも1つに基づき、前記LF補正値及び前記事前歪みデータを切り替えてもよい。
In a second aspect subordinate to the first aspect,
The storage unit is configured to store a plurality of images corresponding to eye positions of the viewer that distort an image displayed on the display so as to suppress distortion of a virtual image caused by at least one of the projection target member and the optical system. It stores the pre-distortion data (warping parameters) of
The control unit may switch the LF correction value and the pre-distortion data based on at least one of information on the viewer's eye position in the height direction of the vehicle and information on which the eye position can be estimated. good.

第2の態様によれば、LF補正値に加えて、事前歪みデータ(ワーピングパラメータ)の値も併せて変更することで、被投影部材(ウインドシールド等)における画像歪みに起因して生じるクロストークについても抑制が可能である。 According to the second aspect, by changing the value of the pre-distortion data (warping parameter) in addition to the LF correction value, crosstalk caused by image distortion in the projected member (windshield, etc.) It is also possible to suppress this.

第1又は第2の態様に従属する第3の態様において、
前記目位置を推定可能な情報は、前記光学系に含まれる少なくとも1つの光学部材を駆動するアクチュエータの設定値の情報、又は、前記立体表示部の前記ディスプレイにおける画像の表示位置の設定情報であり、
前記制御部は、前記アクチュエータの設定値の情報、又は、前記立体表示部の前記ディスプレイにおける画像の表示位置の設定情報に対応した前記LF補正値、又は、前記LF補正値と前記事前歪みデータを用いてライトフィールドレンダリングを実施してもよい。
In a third aspect dependent on the first or second aspect,
The information capable of estimating the eye position is information about a setting value of an actuator that drives at least one optical member included in the optical system, or information about a display position of an image on the display of the stereoscopic display unit. ,
The control unit may control the LF correction value corresponding to information on a setting value of the actuator, or the setting information on a display position of an image on the display of the stereoscopic display unit, or the LF correction value and the pre-distortion data. Light field rendering may be performed using .

第3の態様では、目位置を推定可能な情報として、アクチュエータの設定値の情報、又は、ディスプレイにおける画像の表示位置の設定情報を使用する。 In the third aspect, information on the actuator settings or setting information on the display position of the image is used as information that can be used to estimate the eye position.

これらの情報を用いて、曲面ミラー等の状態や、アイボックスと目との相対的位置関係等を把握し、現状に適したLF補正値、又は、そのLF補正値と事前歪みデータ(ワーピングパラメータ)を適用したレンダリングを実施することで、効果的にクロストーク等を抑制することができる。 Using this information, we can grasp the condition of the curved mirror, etc., the relative positional relationship between the eye box and the eye, etc., and calculate the LF correction value suitable for the current situation, or the LF correction value and pre-distortion data (warping parameters). ), it is possible to effectively suppress crosstalk and the like.

第1又は第2の態様に従属する第4の態様において、
前記制御部は、虚像の視認可能範囲を示すアイボックス内における、視認者の目の前記車両の高さ方向における位置の区分に基づいて定まる前記LF補正値、又は、前記LF補正値と前記事前歪みデータを用いてライトフィールドレンダリングを実施してもよい。
In a fourth aspect subordinate to the first or second aspect,
The control unit is configured to control the LF correction value determined based on the classification of the position of the viewer's eye in the height direction of the vehicle in an eye box indicating a visible range of the virtual image, or the LF correction value and the above-mentioned LF correction value. Light field rendering may be performed using the predistortion data.

第4の態様によれば、例えば、1つのアイボックスの分割領域内における高さ方向(上下方向)における目の位置も考慮して、レンダリングに用いるデータを、より詳細に選択することができる。従って、例えば、アイボックス内の、高さ方向の目の位置に応じて発生しうる、比較的小さなクロストークも軽減(抑制)することが可能である。 According to the fourth aspect, the data used for rendering can be selected in more detail, for example, by also considering the position of the eye in the height direction (vertical direction) within the divided area of one eyebox. Therefore, it is also possible to reduce (suppress) relatively small crosstalk that may occur depending on the position of the eye in the eye box in the height direction, for example.

また、アイボックス内での、高さ位置の区分(例えば、高部、中部、底部等の分類)の数を適切に設定することで、例えば、事前に用意するLF補正値や事前歪みデータ(ワーピングパラメータ)の数が増え過ぎないように調整し、装置の負担を減らすこと等が可能である。 In addition, by appropriately setting the number of height position divisions (e.g., high, middle, bottom, etc.) in the eyebox, it is possible to It is possible to reduce the load on the device by adjusting the number of warping parameters (warping parameters) so that they do not increase too much.

当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。 Those skilled in the art will readily appreciate that the exemplified embodiments of the present invention may be further modified without departing from the spirit of the present invention.

ライトフィールド方式(光線再現方式)の立体表示の原理を説明するための図である。FIG. 2 is a diagram for explaining the principle of stereoscopic display using a light field method (light beam reproduction method). 図2(A)は、ライトフィールド方式(光線再現方式)の立体表示部(立体表示装置)の基本構成例と立体像の表示(生成)例を示す図、図2(B)は、立体表示部(立体表示装置)を用いたHUD装置において、立体像を構成する一点の光点から出射される左目用、右目用の各光線によって虚像の表示がなされる例を示す図である。FIG. 2(A) is a diagram showing an example of the basic configuration of a light field method (light beam reproduction method) stereoscopic display unit (stereoscopic display device) and an example of displaying (generating) a stereoscopic image, and FIG. 2(B) is a diagram showing a stereoscopic display. FIG. 3 is a diagram illustrating an example in which a virtual image is displayed using left-eye and right-eye light rays emitted from a single light point constituting a stereoscopic image in a HUD device using a stereoscopic display device. 図3(A)は、1つの円筒レンズに対応し、かつ水平方向の位置が1ピクセル分ずつずれて配置される複数(5個)の各ピクセルと、水平方向に対応する方向に等間隔で分割されたア複数(5個)のアイボックスの分割領域との、理想的な対応関係を示す図、図3(B)は、視域における視点数が5であるHUD装置を簡略化して示す図、図3(C)は、平面ディスプレイにおける、ピクセル(及びサブピクセル)の構成例(モザイク配列を採用した例)を示す図である。Figure 3(A) shows a plurality of pixels (5) that correspond to one cylindrical lens and that are arranged at horizontal positions shifted by 1 pixel, and that are arranged at equal intervals in the direction corresponding to the horizontal direction. FIG. 3B is a diagram illustrating the ideal correspondence between the divided areas of a plurality of (5) divided eye boxes, and FIG. 3C are diagrams showing an example of the configuration of pixels (and sub-pixels) in a flat display (an example employing a mosaic arrangement). 図4(A)は、理想的な状態におけるピクセルとアイボックスの分割領域との対応関係を示す図(図3(A)と内容は同じ)であり、図4(B)は、光学系等によって光線の進路が乱された後の、各ピクセルと各アイボックスの分割領域との対応関係の一例を示す図である。FIG. 4(A) is a diagram showing the correspondence between pixels and the divided areas of the eyebox in an ideal state (the contents are the same as FIG. 3(A)), and FIG. FIG. 3 is a diagram illustrating an example of the correspondence between each pixel and the divided area of each eyebox after the path of the light ray is disturbed by. 図5は、光学系等によって光線の進路が乱された後の、ピクセルとアイボックスの分割領域との対応関係の、さらに他の例を示す図である。FIG. 5 is a diagram illustrating still another example of the correspondence between pixels and divided areas of the eyebox after the path of the light ray is disturbed by an optical system or the like. 図6は、目の高さ位置に合わせて曲面ミラーを回動させるHUD装置の要部構成例を示す図である。FIG. 6 is a diagram showing an example of the configuration of a main part of a HUD device that rotates a curved mirror to match the eye height position. 図7は、目の高さ位置に合わせて、ディスプレイにおける画像の表示位置を変更するHUD装置の要部構成例を示す図である。FIG. 7 is a diagram illustrating an example of a main part configuration of a HUD device that changes the display position of an image on a display according to the eye level position. 図8(A)は、車両の高さ方向の位置が異なる2つのアイボックス内での視認者の目の位置の例を示す図、図8(B)は、1つの縦長のアイボックス内での視認者の目の位置の例を示す図である。FIG. 8(A) is a diagram showing an example of the position of the viewer's eyes in two eyeboxes with different positions in the height direction of the vehicle, and FIG. 8(B) is a diagram showing an example of the position of the viewer's eyes in one vertically long eyebox. FIG. 3 is a diagram showing an example of the position of the viewer's eyes. 図9は、アイボックス内における目の高さ位置(目の高さ位置の区分)に応じたLF補正値(又は、LF補正値と事前歪みデータのセット)の設定例を示す図である。FIG. 9 is a diagram illustrating an example of setting an LF correction value (or a set of an LF correction value and pre-distortion data) according to the eye height position (division of the eye height position) in the eyebox. 図10は、平面ディスプレイにおける、LF補正値の使用領域の設定例を示す図である。FIG. 10 is a diagram illustrating an example of setting the usage area of the LF correction value on a flat display. 図11(A)、(B)は、事前歪み補正(ワーピング)について説明するための図、図11(C)は、視点位置追従ワーピングについて説明するための図である。11A and 11B are diagrams for explaining pre-distortion correction (warping), and FIG. 11C is a diagram for explaining viewpoint position tracking warping. 図12は、HUD装置(LF補正及びワーピングの各機能をもつ)を搭載する虚像表示システムの全体構成例を示す図である。FIG. 12 is a diagram showing an example of the overall configuration of a virtual image display system equipped with a HUD device (having LF correction and warping functions). 図13は、HUD装置の動作手順例を示す図である。FIG. 13 is a diagram illustrating an example of the operation procedure of the HUD device.

以下に説明する最良の実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。 The best embodiment described below is used to facilitate understanding of the present invention. Therefore, those skilled in the art should note that the invention is not unduly limited by the embodiments described below.

図1は、ライトフィールド方式(光線再現方式)の立体表示の原理を説明するための図である。図1では、ライトフィールド方式の立体表示部(立体表示装置ともいう。以下、単に立体表示部と称する)230により、異なる奥行き位置(奥行き距離)に、2つの立体像IM10、IM20を表示している。 FIG. 1 is a diagram for explaining the principle of stereoscopic display using the light field method (light beam reproduction method). In FIG. 1, two stereoscopic images IM10 and IM20 are displayed at different depth positions (depth distances) by a light field type stereoscopic display unit (also referred to as a stereoscopic display device.Hereinafter, simply referred to as a stereoscopic display unit) 230. There is.

立体表示部(ライトフィールドディスプレイと称する場合もある)230は、液晶パネル等を用いた平面ディスプレイ210と、光学部材220としてのレンチキュラレンズ220とを組み合わせて使用し、平面ディスプレイ210における「点灯ピクセル(点灯画素)の位置」を制御して、任意の位置と方向にて規定される光線を再現する。 The stereoscopic display unit (sometimes referred to as a light field display) 230 uses a combination of a flat display 210 using a liquid crystal panel or the like and a lenticular lens 220 as an optical member 220, and uses "lit pixels" ( By controlling the position of the lit pixel (lighted pixel), a defined light beam is reproduced at an arbitrary position and direction.

また、立体像IM10、IM20の、立体表示部230側から見た奥行き位置(あるいは奥行き距離L10、L20)は、平面ディスプレイにおける「点灯ピクセル(点灯画素)の点灯パターン」を変更することにより、適宜、調整することができる。なお、図1において、奥行き距離L10、L20は、立体表示部230を構成するレンチキュラレンズのレンズ中心から各立体像IM10、IM20までの距離である。但し、レンズ中心を基準とするのは一例であり、他の箇所を基準として奥行き距離を定義してもよい。 In addition, the depth position (or depth distance L10, L20) of the stereoscopic images IM10, IM20 when viewed from the stereoscopic display unit 230 side can be adjusted as appropriate by changing the "lighting pattern of lighting pixels (lighting pixels)" on the flat display. , can be adjusted. Note that in FIG. 1, depth distances L10 and L20 are distances from the lens center of the lenticular lens constituting the stereoscopic display section 230 to the respective stereoscopic images IM10 and IM20. However, using the lens center as a reference is just one example, and the depth distance may be defined using another location as a reference.

また、図1では、立体像IM10、IM20が出射する光線(立体像IM10、IM20の再現光)が結像する位置に、左目ALと右目ARとが位置するものとし、各目AL、ARから各立体像IM10、IM20までの距離を、イメージ表示距離L30、L40としている。 In addition, in FIG. 1, it is assumed that the left eye AL and the right eye AR are located at the position where the light beams emitted by the three-dimensional images IM10 and IM20 (reproduced light of the three-dimensional images IM10 and IM20) are formed, and from each eye AL and AR. The distances to the respective stereoscopic images IM10 and IM20 are defined as image display distances L30 and L40.

また、実空間で立体像IM10、IM20を観察する観察者(あるいは立体像IM10、IM20を視認する視認者)の左右の目AL、ARを結ぶ線分に沿う方向を水平方向とする。図1では、平面ディスプレイ210において、複数のピクセル(画素)Gが水平方向に配列されている。また、図1では、非点灯のピクセルは白抜きの四角で表され、点灯しているピクセルは、黒塗りの四角で表されている。 Further, the direction along the line segment connecting the left and right eyes AL and AR of the observer who observes the stereoscopic images IM10 and IM20 in real space (or the viewer who visually perceives the stereoscopic images IM10 and IM20) is defined as the horizontal direction. In FIG. 1, in a flat display 210, a plurality of pixels G are arranged horizontally. Further, in FIG. 1, non-lit pixels are represented by white squares, and lit pixels are represented by black squares.

立体像IM10を表示するためのピクセル(表示用ピクセル)の点灯(発光)パターンPT1は、立体像IM20の表示用ピクセルの点灯(発光)パターンPT2とは異なるパターンとなっている。このパターンの差異によって、立体像IM10、IM20の各奥行き距離L10、L20を異なる値とすることができる。 The lighting (light emission) pattern PT1 of pixels (display pixels) for displaying the stereoscopic image IM10 is a different pattern from the lighting (light emission) pattern PT2 of the display pixels of the stereoscopic image IM20. Due to this pattern difference, the depth distances L10 and L20 of the three-dimensional images IM10 and IM20 can be set to different values.

また、点灯パターンPT1は、紙面上で、点灯パターンPT2の上側にあり、点灯しているピクセル(点灯ピクセル)の、水平方向での位置が異なっている。言い換えれば、点灯ピクセルの位置を調整することで、2つの立体像IM10、IM20の、3次元空間における水平方向での位置を異ならせることができる。 Also, lighting pattern PT1 is located above lighting pattern PT2 on the paper, and the horizontal positions of the lit pixels (lit pixels) are different. In other words, by adjusting the positions of the lit pixels, the horizontal positions of the two stereoscopic images IM10 and IM20 in three-dimensional space can be made to differ.

図2を参照する。図2(A)は、ライトフィールド方式(光線再現方式)の立体表示部(立体表示装置)の基本構成例と立体像の表示(生成)例を示す図、図2(B)は、立体表示部(立体表示装置)を用いたHUD装置において、立体像を構成する一点の光点から出射される左目用、右目用の各光線によって虚像の表示がなされる例を示す図である。図2において、図1と共通する箇所には同じ符号を付している(なお、この点は、以下の図でも同様である)。 See FIG. 2. FIG. 2(A) is a diagram showing an example of the basic configuration of a light field method (light beam reproduction method) stereoscopic display unit (stereoscopic display device) and an example of displaying (generating) a stereoscopic image, and FIG. 2(B) is a diagram showing a stereoscopic display. FIG. 3 is a diagram illustrating an example in which a virtual image is displayed using left-eye and right-eye light rays emitted from a single light point constituting a stereoscopic image in a HUD device using a stereoscopic display device. In FIG. 2, parts common to those in FIG. 1 are given the same reference numerals (this point also applies to the following figures).

平面ディスプレイ210は、平面視で四角形をなす領域(表示領域、あるいは表示面)215を有する。この表示面215に、多数のピクセル(画素)が2次元的に格子状に配置されている。その四角形の表示面215の横方向を水平方向とする。表示面215の縦方向を垂直方向とする。また、表示面215に直交する線分(法線)に沿う方向であって、その表示面215から離れる方向を奥行き方向とする。 The flat display 210 has a rectangular area (display area, or display surface) 215 in a plan view. A large number of pixels (picture elements) are arranged two-dimensionally in a grid pattern on this display surface 215. The horizontal direction is the width of the rectangular display surface 215. The vertical direction is the length of the display surface 215. The depth direction is the direction along a line segment (normal line) perpendicular to the display surface 215 and away from the display surface 215.

また、図2(A)では、表示面215上に、左目用の表示光EL(1)の生成に使用されるピクセル(画素)IMLと、右目用の表示光ER(1)の生成に使用されるピクセル(画素)IMRが示されている。 In addition, in FIG. 2A, on the display surface 215, there are pixels IML used to generate display light EL(1) for the left eye, and pixels IML used to generate display light ER(1) for the right eye. The resulting pixel IMR is shown.

光学部材RSとしては、先に示したレンチキュラレンズ220の他、パララックスバリア(視差バリア)225を使用してもよい。但し、これらは例示であり、これらに限定されるものではない。 As the optical member RS, in addition to the lenticular lens 220 shown above, a parallax barrier (parallax barrier) 225 may be used. However, these are examples and are not limited to these.

図2(A)の左上側に示されるように、レンチキュラレンズ220は、円筒レンズ(シリンドリカルレンズ)を所定ピッチで水平方向に配置した構成を有し、光線を、左右の各目用に分離する光線分離機能を有する。 As shown on the upper left side of FIG. 2(A), the lenticular lens 220 has a configuration in which cylindrical lenses are arranged horizontally at a predetermined pitch, and separates light rays for each of the left and right eyes. Has a light beam separation function.

また、パララックスバリア(視差バリア)225は、例えば幅の細い短冊状(矩形形状)の遮蔽物225a~225nを、隙間(スリット)SLを設けつつ横方向に所定ピッチで配置したものであり、同じ画像であっても、遮蔽物によって、その画像の表示光の一部を遮蔽することで、左右の各目用の、異なる映像の表示光(指向性のある表示光)を発生させるものである。光線を左右の各目用に分離する点ではレンチキュラレンズと共通する。 Further, the parallax barrier 225 is, for example, thin strip-shaped (rectangular) shielding objects 225a to 225n arranged horizontally at a predetermined pitch while providing gaps (slits) SL. Even if the image is the same, by blocking part of the image display light with a blocking object, different image display light (directional display light) is generated for each eye. be. It is similar to a lenticular lens in that it separates light rays for each eye.

光線分離機能を有する光学部材RSで分離された光(言い換えれば、立体像を表示する各目用の表示光E(L1)、E(R1))が、光の結像点に位置する両目AL、ARに入光したとすると、人には、輻輳(光の交差)が生じている箇所にて、見かけ上の立体像IMが見える。言い換えれば、このことは、立体像IMが、立体表示部230によって表示(あるいは生成)された、とみることもできる。なお、図2(A)の例では、輻輳角はθcである。 The light separated by the optical member RS having a beam separation function (in other words, the display lights E(L1) and E(R1) for each eye that display a stereoscopic image) is transmitted to both eyes AL located at the light imaging point. , when light enters the AR, a person sees an apparent three-dimensional image IM at a location where convergence (intersection of light) occurs. In other words, this can be considered to mean that the stereoscopic image IM is displayed (or generated) by the stereoscopic display unit 230. Note that in the example of FIG. 2(A), the convergence angle is θc.

次に、図2(B)を参照する。図2(B)では、HUD装置100のユーザーである視認者(車両の運転者等)の前にアイボックスEBが設定されている。なお、図中、アイボックスEBは、簡略化されて平面的に描かれている。 Next, refer to FIG. 2(B). In FIG. 2(B), an eyebox EB is set in front of a viewer (such as a vehicle driver) who is a user of the HUD device 100. Note that in the figure, the eyebox EB is simplified and drawn in a two-dimensional manner.

アイポイントP(C)は、アイボックスEBの中央に位置する。ウインドシールド2の前方に、左右の各目に対応する仮想的な結像面PS(L)、PS(R)を設定したとすると、その重なりの領域の中央に虚像V(C)が位置する。虚像V(C)の輻輳角はθdであり、虚像V(C)は、視認者(ユーザー)には立体的な像として認識されることになる。 Eyepoint P(C) is located at the center of eyebox EB. Assuming that virtual imaging planes PS (L) and PS (R) corresponding to the left and right eyes are set in front of the windshield 2, the virtual image V (C) is located in the center of the overlapping area. . The convergence angle of the virtual image V(C) is θd, and the virtual image V(C) is recognized by the viewer (user) as a three-dimensional image.

この立体的な虚像V(C)は、以下のようにして表示(形成)される。すなわち、図2(A)に示した3Dディスプレイにより生成された仮想的な立体像IMの、左右の各目用の表示光E(L1)、E(R1)を、HUD装置の光学系に含まれる曲面ミラー(凹面鏡等)171にて反射させ(反射の回数は少なくとも1回)、表示光E(L1)、E(R1)をウインドシールド2に投射(投影)し、その反射光が視認者の両目に至り、ウインドシールド(被投影部材)2の前方に像を結ぶことによって、虚像V(C)が表示(形成)されることになる。 This three-dimensional virtual image V(C) is displayed (formed) as follows. That is, the optical system of the HUD device includes display lights E(L1) and E(R1) for each of the left and right eyes of the virtual stereoscopic image IM generated by the 3D display shown in FIG. 2(A). The display lights E (L1) and E (R1) are reflected by a curved mirror (concave mirror, etc.) 171 (the number of reflections is at least once) and projected (projected) onto the windshield 2, and the reflected light is reflected by the viewer. The virtual image V(C) is displayed (formed) by focusing the image in front of the windshield (projection target member) 2.

次に、図3を参照する。図3(A)は、1つの円筒レンズに対応し、かつ水平方向の位置が1ピクセル分ずつずれて配置される複数(5個)の各ピクセルと、水平方向に対応する方向に等間隔で分割されたア複数(5個)のアイボックスの分割領域との、理想的な対応関係を示す図、図3(B)は、視域における視点数が5であるHUD装置を簡略化して示す図、図3(C)は、平面ディスプレイにおける、ピクセル(及びサブピクセル)の構成例(モザイク配列を採用した例)を示す図である。なお、図1、図2と共通する部分には同じ符号を付している(この点は、以降の図面でも同様である)。 Next, refer to FIG. Figure 3(A) shows a plurality of pixels (5) that correspond to one cylindrical lens and that are arranged at horizontal positions shifted by 1 pixel, and that are arranged at equal intervals in the direction corresponding to the horizontal direction. FIG. 3B is a diagram illustrating the ideal correspondence between the divided areas of a plurality of (5) divided eye boxes, and FIG. 3C are diagrams showing an example of the configuration of pixels (and sub-pixels) in a flat display (an example employing a mosaic arrangement). Note that parts common to FIGS. 1 and 2 are denoted by the same reference numerals (this point also applies to subsequent drawings).

図3(A)において、レンチキュラレンズ220の1つの円筒レンズに対して、平面ディスプレイ210の表示面215には、水平方向に1ピクセルずつずれて、5つのピクセル(要素単位)G10~G14が配置されており、これが点灯対象のピクセルとなる。また、ピクセルG10~G14は、例えば、表示データα(例えば、右目画像の表示データである)に基づいて点灯される。 In FIG. 3A, five pixels (element units) G10 to G14 are arranged on the display surface 215 of the flat display 210, shifted by one pixel in the horizontal direction, for one cylindrical lens of the lenticular lens 220, and these are the pixels to be lit. Furthermore, the pixels G10 to G14 are lit up, for example, based on display data α (for example, display data for the right-eye image).

図3(A)の例では、ピクセルG10~G14は、横一列ではなく、斜め方向に配列されているが、これは、これらの画素を点灯すると、水平方向と垂直方向の画素密度のバランスが良く、光線が適切に分散され得ることを考慮したものである。 In the example of FIG. 3(A), the pixels G10 to G14 are arranged diagonally instead of in a horizontal row, but this is because when these pixels are turned on, the pixel density in the horizontal and vertical directions is not balanced. This takes into consideration that the light rays can be properly dispersed.

図3(A)に示されるように、ピクセルG10~G14の各々から出射される光は、水平方向の位置を異にしながら奥行き方向に進行し、先に説明したように、光学系やウインドシールドを経由して(但し、図3(A)、(B)では省略)、アイボックスEBに到る。 As shown in FIG. 3(A), the light emitted from each of the pixels G10 to G14 travels in the depth direction while changing the position in the horizontal direction, and as explained earlier, the light emitted from each of the pixels G10 to G14 travels in the depth direction while changing the position in the horizontal direction. (However, it is omitted in FIGS. 3A and 3B) to reach the eyebox EB.

アイボックスEBは、視認者(運転者等)が位置する実空間において、立体表示部230における水平方向に対応する方向(車両の幅方向、あるいは、左右の目を結ぶ線部に沿う左右方向)に沿って5つの領域に分割されている。各領域を、アイボックスの分割領域と称し、図3(A)では、符号J10~J14にて示している。なお、アイボックスEBは、簡略化のため、平面的に描かれている。また、アイボックスの分割領域J11に、視認者の目(ここでは右目)Aが位置する。 The eye box EB is located in a direction corresponding to the horizontal direction of the stereoscopic display section 230 in the real space where the viewer (driver, etc.) is located (the width direction of the vehicle, or the left and right direction along the line connecting the left and right eyes). It is divided into five areas along the Each area is referred to as a divided area of the eyebox, and is indicated by reference numerals J10 to J14 in FIG. 3(A). Note that the eyebox EB is drawn in a two-dimensional manner for the sake of simplification. Furthermore, the viewer's eye (here, the right eye) A is located in the divided area J11 of the eye box.

光線がまったく乱されることがない理想的な状態では、ピクセルG10~G14の各々は、アイボックスの分割領域J10~J14の各々に到達する。言い換えれば、各ピクセルG10~G14と、各アイボックスの分割領域J10~J14とは、1:1の対応関係にある。 In an ideal situation where the light rays are not disturbed at all, each of the pixels G10-G14 would reach each of the eyebox divisions J10-J14. In other words, each pixel G10 to G14 and each eyebox divided region J10 to J14 have a 1:1 correspondence relationship.

図3(B)に示されるように、立体表示部230を備えるHUD装置100は、視点数が5の多視点式の虚像表示装置とみることができる。 As shown in FIG. 3B, the HUD device 100 including the stereoscopic display section 230 can be viewed as a multi-view virtual image display device with five viewpoints.

図3(C)に、平面ディスプレイにおける、ピクセル(及びサブピクセル)の構成例(モザイク配列を採用した例)が示される。レンチキュラレンズ220の1つの円筒レンズに対して、水平方向に5個のピクセルが配置される。1つのピクセルは、R(赤)、G(緑)、B(青)の3色のサブピクセルで構成される。 FIG. 3C shows an example of the configuration of pixels (and subpixels) in a flat display (an example employing a mosaic arrangement). Five pixels are arranged in the horizontal direction for one cylindrical lens of the lenticular lens 220. One pixel is composed of sub-pixels of three colors: R (red), G (green), and B (blue).

ピクセルG10は、RGBのサブピクセルで構成され、ピクセルG11は、BRGのサプピクセルで構成され、ピクセルG12は、GBRのサプピクセルで構成され、ピクセルG13は、RGBのサブピクセルで構成され、ピクセルG14は、BRGのサブピクセルで構成される。 Pixel G10 is composed of RGB sub-pixels, pixel G11 is composed of BRG sub-pixels, pixel G12 is composed of GBR sub-pixels, pixel G13 is composed of RGB sub-pixels, and pixel G14 is composed of RGB sub-pixels. It is composed of BRG subpixels.

次に、図4を参照する。図4(A)は、理想的な状態におけるピクセルとアイボックスの分割領域との対応関係を示す図(図3(A)と内容は同じ)であり、図4(B)は、光学系等によって光線の進路が乱された後の、各ピクセルと各アイボックスの分割領域との対応関係の一例を示す図、図4(B)は、光学系等によって光線の進路が乱された後の、各ピクセルと各アイボックスの分割領域との対応関係の他の例を示す図である。 Next, refer to FIG. 4. FIG. 4(A) is a diagram showing the correspondence between pixels and the divided areas of the eyebox in an ideal state (the contents are the same as FIG. 3(A)), and FIG. Figure 4(B) shows an example of the correspondence between each pixel and the divided area of each eyebox after the path of the ray is disturbed by the optical system, etc. , FIG. 7 is a diagram showing another example of the correspondence between each pixel and each divided area of each eyebox.

図4(A)の理想的な状態では、先に説明したとおり、各ピクセルG10~G14と、各アイボックスの分割領域J10~J14とは、1:1の対応がとれている。 In the ideal state of FIG. 4A, as described above, there is a 1:1 correspondence between each pixel G10 to G14 and each eyebox divided region J10 to J14.

図4(B)の、光線の進路が乱された後の状態では、ピクセルとアイボックスの分割領域との対応関係が崩れ、ここでは、ピクセルG8~G12の各々が、アイボックスの分割領域J10~J14の各々に対応する状態に変化している。 In the state shown in FIG. 4B after the path of the light ray is disturbed, the correspondence between the pixels and the divided areas of the eyebox is broken, and here, each of the pixels G8 to G12 corresponds to the divided area J10 of the eyebox. -J14.

ここで、図4(B)のような変化を考慮せず、図4(A)のままのピクセルG10~G14の点灯を継続すれば、データαに基づく右目用画像の再現光は右目Aには入射されず,ピクセルG9からの光が右目Aに到来する。そのピクセルG9が、例えば、別の表示データに基づく左目用画像の光を出射しているとすると、右目Aに、左目用画像の光が入射されることとなり、クロストークが発生する。 Here, if we continue to light up pixels G10 to G14 as shown in FIG. 4(A) without considering the changes shown in FIG. 4(B), the reproduced light of the image for the right eye based on the data α is is not incident, and the light from pixel G9 reaches right eye A. For example, if the pixel G9 emits the light of the left-eye image based on different display data, the light of the left-eye image will be incident on the right eye A, and crosstalk will occur.

但し、図4(B)では、対応関係の変化を考慮して、データαに基づく右目用画像を表示するピクセルを、図4(A)のG10~G14から、G8~G12へとシフトさせている。 However, in FIG. 4(B), the pixels that display the right eye image based on the data α are shifted from G10 to G14 in FIG. 4(A) to G8 to G12 in consideration of the change in the correspondence relationship. There is.

言い換えれば、データαに基づく点灯(発光)ピクセルが、水平方向に、2ピクセル分だけずれている。点灯ピクセルの補正量は、水平方向に2ピクセル分である。これは、LF補正値(図中、LFCと記載されている)を「+2」として、点灯ピクセルの位置(あるいは、点灯パターンの位置)を、水平方向に、+2ピクセル分だけ移動させる補正を行った結果とみることができる。 In other words, the lit (illuminated) pixel based on data α is shifted by two pixels in the horizontal direction. The correction amount for the lit pixel is two pixels in the horizontal direction. This can be seen as the result of a correction that sets the LF correction value (written as LFC in the diagram) to "+2" and moves the position of the lit pixel (or the position of the lighting pattern) by +2 pixels in the horizontal direction.

このLF補正が行われた後は、ピクセルG9は右目用画像を表示しているため、右目Aには、図4(A)と同様に、右目用画像の光が入射され、クロストークが生じない。このように、ピクセルとアイボックスの分割領域との対応関係の乱れ(崩れ)を考慮して、その対応関係の不備(アンマッチ)が抑制されるように、LF補正によって、点灯ピクセルの位置(あるいは点灯パターンの位置)を水平方向に沿ってずらせる補正を行うことで、クロストークを抑制することができる。 After this LF correction is performed, pixel G9 displays the right eye image, so light from the right eye image enters the right eye A, similar to FIG. 4(A), and crosstalk occurs. do not have. In this way, taking into account the disturbance (collapse) in the correspondence between pixels and the divided areas of the eyebox, the position of the lit pixel (or Crosstalk can be suppressed by performing a correction that shifts the position of the lighting pattern in the horizontal direction.

なお、図4(B)では、LF補正値は、補正がないときの点灯ピクセルからのずれ量にて示されているが、これは一例である。例えば、「G8から1ピッチ分のピクセル又はサブピクセル」と指定して、点灯すべきピクセルG8~G12を決定してもよい。ピクセル又はサブピクセル(要素単位)の指定の仕方は種々、考えられる。状況に応じて、指定方法を変えることもあり得る。また、LF補正値として複数の値を用いることもできる。 Note that in FIG. 4B, the LF correction value is shown as the amount of deviation from the lit pixel when no correction is made, but this is just an example. For example, pixels G8 to G12 to be lit may be determined by specifying "pixels or subpixels for one pitch from G8". Various ways of specifying a pixel or subpixel (element unit) are conceivable. The designation method may change depending on the situation. Moreover, a plurality of values can also be used as the LF correction value.

次に、図5を参照する。図5は、光学系等によって光線の進路が乱された後の、ピクセルとアイボックスの分割領域との対応関係の、さらに他の例を示す図である。 Next, refer to FIG. 5. FIG. 5 is a diagram illustrating still another example of the correspondence between pixels and divided areas of the eyebox after the path of the light ray is disturbed by an optical system or the like.

図5では、光線の進路が乱された結果として、ピクセルG15~G19が、アイボックスの分割領域J10~J14に対応する状況が生じている。この状況を考慮せず、図4(A)のままの表示を継続すると、クロストークが生じる。 In FIG. 5, as a result of the path of the light rays being disturbed, a situation has arisen in which pixels G15-G19 correspond to divided regions J10-J14 of the eyebox. If the display shown in FIG. 4A is continued without considering this situation, crosstalk will occur.

そこで、図5の例では、LF補正値(LFC)を「-5」として、データαに基づく表示がなされるべきピクセルG15~G19を決定(指定)する。言い換えれば、データαに基づく点灯ピクセルが、図4(A)のG10~G14から、図5のG15~G19へと変更(補正)される。これによって、ピクセルやサブピクセルと、アイボックスの分割領域との間の適正な対応関係を保つことができ、クロストークの発生が抑制される。 Therefore, in the example of FIG. 5, the LF correction value (LFC) is set to "-5", and the pixels G15 to G19 to be displayed based on the data α are determined (designated). In other words, the lighting pixels based on the data α are changed (corrected) from G10 to G14 in FIG. 4A to G15 to G19 in FIG. This makes it possible to maintain an appropriate correspondence between pixels and sub-pixels and the divided areas of the eyebox, thereby suppressing the occurrence of crosstalk.

次に、図6を参照する。図6は、目の高さ位置に合わせて曲面ミラーを回動させるHUD装置の要部構成例を示す図である。 Next, refer to FIG. FIG. 6 is a diagram illustrating an example of a main part configuration of a HUD device that rotates a curved mirror according to the eye level position.

HUD装置100は、立体表示部230と、折り返しミラー(反射鏡)133と、曲面ミラー(ここでは凹面鏡とする)131と、外部のセンサや他のECUから情報を取得するI/Oインタフェース、プロセッサ、メモリ、及びメモリに記憶されたコンピュータプログラム等から構成される制御部(HMI制御部)300と、を有する。 The HUD device 100 includes a three-dimensional display section 230, a folding mirror (reflector) 133, a curved mirror (here, a concave mirror) 131, an I/O interface for acquiring information from external sensors and other ECUs, and a processor. , a memory, and a control unit (HMI control unit) 300 configured from a computer program stored in the memory.

また、凹面鏡131の角度は、アクチュエータからなる回転機構129の動作によって適宜、調整され得る。アクチュエータ129は、アクチュエータ駆動部189により駆動される。 The angle of the concave mirror 131 can be adjusted as appropriate by the operation of a rotation mechanism 129 consisting of an actuator. The actuator 129 is driven by an actuator driver 189.

制御部300は、立体表示部230の動作及びアクチュエータ駆動部189等の動作を制御する。制御部300は、アクチュエータ駆動部189に、例えば、曲面ミラー(凹面鏡)131の回転(回動)量を定めるアクチュエータの設定値SDを設定する。 The control unit 300 controls the operation of the stereoscopic display unit 230, the actuator drive unit 189, and the like. The control unit 300 sets, for example, an actuator setting value SD that determines the amount of rotation (rotation) of the curved mirror (concave mirror) 131 in the actuator drive unit 189.

また、図6の例では、視認者(運転者等)の目(視点)Aの高さ位置は、視認者の身長や運転時の姿勢等に応じて変動する。一例として、目(視点)の高さ位置として、ミドル(中央)、アップ(高い)、ダウン(低い)の3つの位置があるものとする。また、目の高さに応じて、アイボックスEBの高さ位置も変更される。 In the example of FIG. 6, the height position of the eyes (view point) A of the viewer (driver, etc.) varies depending on the viewer's height, driving posture, and the like. As an example, assume that there are three eye (viewpoint) height positions: middle (center), up (high), and down (low). Furthermore, the height position of the eye box EB is also changed depending on the eye height.

図6の例では、目(視点)Aの高さ(UP、MD、DW)に応じて、曲面ミラー(凹面鏡)131が回転され、表示光Kの進路が変更される。これによって、目(視点)Aがどの位置にあっても、表示光Kがウインドシールド2で反射された光は、目(視点)Aに入射されることになる。 In the example of FIG. 6, the curved mirror (concave mirror) 131 is rotated according to the height (UP, MD, DW) of the eye (viewpoint) A, and the course of the display light K is changed. As a result, no matter where the eye (viewpoint) A is located, the display light K reflected by the windshield 2 will be incident on the eye (viewpoint) A.

但し、先に説明したように、曲面ミラー(凹面鏡等)131が回転されることによって、光線の反射位置が異なり、その反射方向が乱れることでクロストークが生じ易くなる。このため、LF補正を実施するが、適切なLF補正を行うためには、光学系の現状に応じたLF補正値を選ぶ必要がある。 However, as described above, when the curved mirror (concave mirror, etc.) 131 is rotated, the reflection position of the light beam changes, and the direction of reflection is disturbed, making crosstalk likely to occur. For this reason, LF correction is performed, but in order to perform appropriate LF correction, it is necessary to select an LF correction value depending on the current state of the optical system.

光学系の現状は、クロストークの発生に関与する曲面ミラー131の状態を知ることで把握できる。目の高さ位置に応じて曲面ミラー131が回転されることから、目の高さ位置の情報は、曲面ミラー131の状態を知るための有力な情報となる。 The current state of the optical system can be understood by knowing the state of the curved mirror 131, which is involved in the generation of crosstalk. Since the curved mirror 131 rotates according to the eye height position, information on the eye height position is useful information for knowing the state of the curved mirror 131.

また、曲面ミラー131の回転のために、アクチュエータ駆動部189に設定されるアクチュエータの設定値SDは、目の高さ位置を推定可能な情報であると共に、曲面ミラー131の状態を正確に知るための有力な情報でもある。 In addition, the actuator setting value SD set in the actuator drive unit 189 for rotating the curved mirror 131 is information that allows estimating the eye height position, and is also used to accurately know the state of the curved mirror 131. It is also a powerful piece of information.

図6の例では、制御部300がアクチュエータ駆動部189に設定するアクチュエータの設定値SDが、曲面ミラー131の回転量を示し、その回転量は、目(視点)Aの位置に対応することから、結果的に、アクチュエータの設定値SDを、目位置を推定可能な情報として参照し、目位置(目の高さ位置)を推定することができる。従って、実測された目位置、及び、目位置を推定可能な情報の少なくとも一方を用いて、目位置を特定、あるいは推定し、その結果を、ライトフィールド補正に利用することが可能である。 In the example of FIG. 6, the actuator setting value SD that the control unit 300 sets in the actuator driving unit 189 indicates the amount of rotation of the curved mirror 131, and this amount of rotation corresponds to the position of the eye (viewpoint) A. As a result, the actuator setting value SD can be referenced as information that can be used to estimate the eye position, and the eye position (eye height position) can be estimated. Therefore, it is possible to identify or estimate the eye position using at least one of the actually measured eye position and information that can be used to estimate the eye position, and use the result for light field correction.

次に、図7を参照する。図7は、目の高さ位置に合わせて、ディスプレイにおける画像の表示位置を変更するHUD装置の要部構成例を示す図である。 Next, refer to FIG. FIG. 7 is a diagram illustrating an example of a main part configuration of a HUD device that changes the display position of an image on a display according to the eye level position.

図7において、図6と共通する箇所には同じ参照符号を付すが、但し、区別できるように、図7においてはダッシュ符号を付している。基本的な構成は図6と同じであるが、図7では、曲面ミラー131’として大型のものが使用され、これに対応して平面ディスプレイ210’も大型のものが使用され、かつ、曲面ミラー131’を回転させる手段は設けられていない。よって、曲面ミラー131’の回転に伴う誤差を考慮する必要はない。 In FIG. 7, parts that are common to those in FIG. 6 are given the same reference numerals, but a dash mark is given in FIG. 7 so that they can be distinguished. Although the basic configuration is the same as that in FIG. 6, in FIG. No means are provided for rotating 131'. Therefore, there is no need to take into account errors caused by the rotation of the curved mirror 131'.

図7の例では、目(視点)Aの高さ位置の変更に対しては、立体表示部230’に含まれる平面ディスプレイ(表示部)210’の表示面215’上における画像の表示位置の変更によって対応する。 In the example of Figure 7, a change in the height position of eye (viewpoint) A is accommodated by changing the display position of the image on the display surface 215' of the flat display (display unit) 210' included in the stereoscopic display unit 230'.

図7の例では、目(視点)Aの高さ(UP、MD、DW)に応じて、画像の表示位置が、図中の点P1’’、P1、P1’のように変化する。変化量はD1である。従って、例えば、目(視点)Aの高さがミドル(MD)にある場合の位置P1を基準として、画像位置のずれ量及びずれの方向(言い換えれば、ディスプレイにおける画像の表示位置の設定情報)を検出することで、目(視点)Aの高さ位置を推定することができる。 In the example of FIG. 7, the display position of the image changes as points P1'', P1, and P1' in the figure, depending on the height (UP, MD, DW) of the eye (viewpoint) A. The amount of change is D1. Therefore, for example, the amount and direction of deviation of the image position (in other words, the setting information of the display position of the image on the display) based on the position P1 when the height of the eye (viewpoint) A is at middle (MD). By detecting , the height position of the eye (viewpoint) A can be estimated.

よって、変化量D1(言い換えれば、ディスプレイにおける画像の表示位置の設定情報)は、目(視点)Aの高さ位置を推定可能な情報として利用可能である。例えば、上記の位置の変化量D1の情報を用いて、アイボックス内における目の、車両の高さ方向における位置を推定することができる。 Therefore, the amount of change D1 (in other words, the setting information of the display position of the image on the display) can be used as information from which the height position of the eye (viewpoint) A can be estimated. For example, the position of the eye in the eye box in the height direction of the vehicle can be estimated using the information on the amount of change in position D1.

次に、図8を参照する。図8(A)は、車両の高さ方向の位置が異なる2つのアイボックス内での視認者の目の位置の例を示す図、図8(B)は、1つの縦長のアイボックス内での視認者の目の位置の例を示す図である。 Next, refer to FIG. FIG. 8(A) is a diagram showing an example of the position of the viewer's eyes in two eyeboxes with different positions in the height direction of the vehicle, and FIG. 8(B) is a diagram showing an example of the position of the viewer's eyes in one vertically long eyebox. FIG. 3 is a diagram showing an example of the position of the viewer's eyes.

図8(A)では、アイボックスEB20は、アイボックスEB10よりも、上側に位置する。下側に位置するアイボックスEB10は、アイボックスの分割領域J1~J5を有する。上側に位置するアイボックスEB20は、アイボックスの分割領域J21~J25を有する。 In FIG. 8(A), eyebox EB20 is located above eyebox EB10. Eyebox EB10, located below, has eyebox divided regions J1 to J5. Eyebox EB20, located above, has eyebox divided regions J21 to J25.

目(視点)Aは、EB10の分割領域J4の上部に位置し、EB20の分割領域J24の下部に位置する。目(視点)Aの高さ方向の位置は同じでも、アイボックスEB10、20の高さ方向の位置が異なるため、結果的に、各アイボックスEB10、EB20に対する、目(視点)の相対的位置が異なることになる。 Eye (viewpoint) A is located above the divided area J4 of EB10 and located below the divided area J24 of EB20. Even though the heightwise position of the eye (viewpoint) A is the same, the heightwise position of the eyeboxes EB10 and EB20 is different, resulting in a relative position of the eye (viewpoint) with respect to each eyebox EB10 and EB20. will be different.

この点を考慮して、例えば、1つのアイボックスの分割領域内における高さ方向(上下方向)における目の位置(目の位置の区分)も考慮して、レンダリングに用いるデータを、より詳細に選択することができる。これによって、アイボックス内の、高さ方向の目の位置に応じて発生しうる、比較的小さなクロストークも軽減(抑制)することが可能である。 Taking this into consideration, for example, the data used for rendering can be refined in more detail by also taking into account the position of the eyes (classification of eye positions) in the height direction (up and down direction) within the divided area of one eyebox. You can choose. This makes it possible to reduce (suppress) relatively small crosstalk that may occur depending on the position of the eye in the eye box in the height direction.

また、アイボックス内での、高さ位置の区分(例えば、高部、中部、底部等の分類)の数を適切に設定することで、例えば、事前に用意するLF補正値や事前歪みデータ(ワーピングパラメータ)の数が増え過ぎないように調整し、装置の負担を減らすことも可能である。 In addition, by appropriately setting the number of height divisions (e.g., high, middle, bottom, etc.) within the eyebox, it is possible to adjust the number of LF correction values and pre-distortion data (warping parameters) prepared in advance so that they do not increase too much, thereby reducing the burden on the device.

図8(B)では、アイボックスEB30(分割領域J31~J35を有し、目はJ34内に位置する)は動かない。但し、アイボックスEB30の内にて、目の高さ位置が、A-1、A-2、A-3と変化する。この場合も、アイボックスと目との相対的位置関係が異なる。この点を考慮して、例えば、1つのアイボックスの分割領域内における高さ方向(上下方向)における目の位置(目の位置の区分)も考慮して、レンダリングに用いるデータを、より詳細に選択することができ、図8(A)の場合と同様の効果を得ることができる。 In FIG. 8(B), the eyebox EB30 (having divided areas J31 to J35, and the eye is located within J34) does not move. However, within the eye box EB30, the eye height position changes from A-1 to A-2 to A-3. In this case as well, the relative positional relationship between the eyebox and the eye is different. Taking this into consideration, for example, the data used for rendering can be refined in more detail by also taking into account the position of the eyes (classification of eye positions) in the height direction (up and down direction) within the divided area of one eyebox. can be selected, and the same effect as in the case of FIG. 8(A) can be obtained.

次に、図9を参照する。図9は、アイボックス内における目の高さ位置(目の高さ位置の区分)に応じたLF補正値(又は、LF補正値と事前歪みデータのセット)の設定例を示す図である。 Next, reference is made to FIG. 9. FIG. 9 is a diagram showing an example of setting the LF correction value (or a set of the LF correction value and pre-distortion data) according to the eye height position (classification of the eye height position) within the eyebox.

図9では、図8(A)の例のように、アイボックスの位置が変動する場合を想定している。曲面ミラー(ここでは凹面鏡とする)の位置(状態)は、標準より低い視点位置(視点高さ位置)に対応する「ショーター」、標準の視点位置に対応する「ノミナル」、標準より高い視点位置に対応する「トーラー」に区分される。また、アイボックス内での視点高さ位置(言い換えれば、視点の、アイボックスに対する相対的な高さ位置)は、高部、中部、底部に区分(分類)される。 In FIG. 9, it is assumed that the position of the eyebox changes as in the example of FIG. 8(A). The positions (states) of the curved mirror (in this case a concave mirror) are "Shorter" corresponding to a viewpoint position (viewpoint height position) lower than the standard, "Nominal" corresponding to the standard viewpoint position, and "Nominal" corresponding to the standard viewpoint position, and "Nominal" corresponding to the standard viewpoint position. It is divided into "Torah" corresponding to. Further, the height position of the viewpoint within the eyebox (in other words, the height position of the viewpoint relative to the eyebox) is classified (classified) into high, middle, and bottom.

ショーター、ノミナル、トーラーの各々について、高部、中部、底部が設定される。これによって、A1~A3、B1~B3、C1~C3の合計で9種類(最小で9個)のLF補正値(又は、LF補正値と事前歪みデータのセット)が、記憶部(図12の符号218参照)に記憶される。なお、LF補正値は、左右の目の各々について、別の値を使用することが可能である。 A high part, a middle part, and a bottom part are set for each of the shorter, nominal, and toller. As a result, a total of nine types (minimum nine) of LF correction values (or a set of LF correction values and pre-distortion data) of A1 to A3, B1 to B3, and C1 to C3 are stored in the storage section (as shown in FIG. 12). 218). Note that it is possible to use different LF correction values for each of the left and right eyes.

図10は、平面ディスプレイにおける、LF補正値の使用領域の設定例を示す図である。図10の例では、LF補正値を使用する領域(言い換えれば、LF補正値を使用したLF補正の対象となるピクセルやサブピクセルの範囲)として、使用領域400が設定されている。使用領域を適切に設定することで、LF補正処理の負担を少なくすることができる。このことは、例えば、高速演算処理を行う点で有利となる。 FIG. 10 is a diagram illustrating an example of setting the usage area of the LF correction value on a flat display. In the example of FIG. 10, a usage area 400 is set as an area where the LF correction value is used (in other words, a range of pixels and sub-pixels that are targets of LF correction using the LF correction value). By appropriately setting the usage area, the burden of LF correction processing can be reduced. This is advantageous, for example, in performing high-speed arithmetic processing.

次に、図11を参照する。図11(A)、(B)は、事前歪み補正(ワーピング)について説明するための図、図11(C)は、視点位置追従ワーピングについて説明するための図である。 Next, let us refer to FIG. 11. FIGS. 11(A) and (B) are diagrams for explaining pre-distortion correction (warping), and FIG. 11(C) is a diagram for explaining viewpoint-tracking warping.

図11(A)に示されるように、平面の虚像表示面PS上に虚像Vを表示する場合でも、ウインドシールド(被投影部材)2等の湾曲による画像の歪みの影響を受けて、虚像表示面はPS’のように変形する。同様に、虚像Vは、虚像V’のように変形する。この変形を、極力低減するために、ワーピング(事前歪み補正)が実施される。 As shown in FIG. 11A, even when the virtual image V is displayed on the flat virtual image display surface PS, the virtual image is The surface deforms like PS'. Similarly, virtual image V deforms like virtual image V'. Warping (pre-distortion correction) is performed to reduce this deformation as much as possible.

ワーピング(事前歪み補正)は、上記の光学系やウインドシールド(被投影部材)2等で生じる歪みとは逆特性の歪みを、事前に、画像データ(ライトフィールド画像データ)に与える、プレディストーション方式(事前歪み方式)の補正である。 Warping (pre-distortion correction) is a pre-distortion method that applies distortion to the image data (light field image data) in advance, which has the opposite characteristics to the distortion caused by the above-mentioned optical system, windshield (projection target member) 2, etc. (pre-distortion method) correction.

図11(B)に示されるように、ワーピングの対象となる画像領域には、複数の基準準座標GD(i,j)が設定され、各基準座標点に対してワーピング処理を施すことで、全体の画像領域を、実際に光学系等で生じる歪みとは逆特性となるように歪ませることができる。 As shown in FIG. 11(B), a plurality of reference quasi-coordinates GD (i, j) are set in the image area to be warped, and by performing warping processing on each reference coordinate point, The entire image area can be distorted so as to have characteristics opposite to those actually caused by an optical system or the like.

図11(C)を用いて、視点位置追従ワーピング処理について説明する。図11(C)に示されるように、アイボックスEBは、複数(ここでは9個)の分割領域J1’~J9’に分割されており、各分割領域J1’~J9’を単位として、ワーピング用の視認者(運転者)の視点Aの位置が検出される。 The viewpoint position tracking warping process will be explained using FIG. 11(C). As shown in FIG. 11(C), the eye box EB is divided into multiple (here, nine) divided regions J1'-J9', and the position of the viewpoint A of the viewer (driver) for warping is detected for each divided region J1'-J9'.

HUD装置100の光学系から表示光Kが出射され、その一部がウインドシールド2により反射されて、視認者(運転者)の目(視点)Aに入射する。目(視点)AがアイボックスEB内にあるとき、視認者(運転者)は画像の虚像を視認することができる。 Display light K is emitted from the optical system of the HUD device 100, a portion of which is reflected by the windshield 2, and enters the eyes (view point) A of the viewer (driver). When the eyes (view point) A are within the eye box EB, the viewer (driver) can visually recognize the virtual image of the image.

HUD装置100は、ROM215を有し、ROM215は、画像変換テーブル217を内蔵する。画像変換テーブル217は、例えばデジタルフィルタによる画像補正(ワーピング画像補正)のための多項式、乗数、定数等を決定するワーピングパラメータWPを記憶している。ワーピングパラメータWPは、アイボックスEBにおける各部分領域J1~J9の各々に対応して設けられる。図11(C)では、各部分領域に対応するワーピングパラメータをWP(J1’)~WP(J9’)が示されている。なお、図中、符号としては、WP(J1’)、WP(J4’)、WP(J7’)のみを示している。 The HUD device 100 has a ROM 215, and the ROM 215 includes an image conversion table 217. The image conversion table 217 stores, for example, warping parameters WP that determine polynomials, multipliers, constants, etc. for image correction (warping image correction) using a digital filter. The warping parameter WP is provided corresponding to each of the partial areas J1 to J9 in the eyebox EB. In FIG. 11C, warping parameters corresponding to each partial area are shown as WP(J1') to WP(J9'). In the figure, only WP (J1'), WP (J4'), and WP (J7') are shown as symbols.

目(視点)Aが移動した場合、視点Aが、複数の部分領域J1’~J9 ’のうちの、どの位置にあるかが検出される。そして、検出された部分領域に対応するワーピングパラメータWP(J1’)~WP(J9’)の何れかがROM215から読みだされ(ワーピングパラメータの更新)、そのワーピングパラメータを用いてワーピング処理が実施される。 When the eye (viewpoint) A moves, the position of the viewpoint A among the plurality of partial regions J1' to J9' is detected. Then, one of the warping parameters WP(J1') to WP(J9') corresponding to the detected partial area is read out from the ROM 215 (warping parameter update), and warping processing is performed using the warping parameter. Ru.

これにより、視点位置に応じたワーピングが実施され、光学系やウインドシールド2等により生じる画像の歪みを効果的に低減(抑制)することができる。ワーピングは、クロストークの防止にも役立つ処理である。 Thereby, warping is performed according to the viewpoint position, and image distortion caused by the optical system, the windshield 2, etc. can be effectively reduced (suppressed). Warping is a process that also helps prevent crosstalk.

従って、本発明の好ましい実施例では、先に説明したLF補正値とワーピングパラメータとを、同じフレームにて(同じフレーム期間にて)切り替える。言い換えれば、LF補正値とワーピングパラメータとをセットにして、フレーム内で切り替え、ワーピングを、LF補正の補強用にも使用するものである。これにより、上述したピクセル(又はサブピクセル)とアイボックスの分割領域とのアンマッチを、より軽減することが可能である。 Therefore, in a preferred embodiment of the present invention, the above-described LF correction value and warping parameter are switched in the same frame (in the same frame period). In other words, the LF correction value and the warping parameter are set as a set and switched within a frame, and the warping is also used for reinforcing the LF correction. Thereby, it is possible to further reduce the mismatch between the above-mentioned pixels (or sub-pixels) and the divided areas of the eyebox.

上述したように、いくつかの実施形態では、図11(C)に示すように、目(視点)Aが車両の幅方向(例えば、部分領域J1’~J3’、J4’~J6’、又はJ7’~J9’)に移動した場合にも、ワーピングパラメータが変化する。すなわち、後述するライトフィールドレンダリング部193は、目(視点)Aが車両の幅方向に変化した場合、LF補正値を変更しなくても、ワーピングパラメータWPのみの変更を実行し得る。 As described above, in some embodiments, as shown in FIG. J7' to J9'), the warping parameters also change. That is, when the eye (viewpoint) A changes in the width direction of the vehicle, the light field rendering unit 193, which will be described later, can change only the warping parameter WP without changing the LF correction value.

次に、図12を参照する。図12は、HUD装置(位置補正及びワーピングを実施する機能をもつ)を搭載する虚像表示システムの全体構成例を示す図である。図12において、前掲の図面と共通する部分には同じ参照符号を付している。先に説明した構成については、説明を省略する。 Next, refer to FIG. 12. FIG. 12 is a diagram showing an example of the overall configuration of a virtual image display system equipped with a HUD device (having a function of performing position correction and warping). In FIG. 12, parts common to those in the previous drawings are given the same reference numerals. Description of the configuration described above will be omitted.

図12の例では、車両1には、車両1の周辺(前方を含む)を撮像する周辺撮像カメラ187と、瞳撮像カメラ188とが設けられている。 In the example of FIG. 12, the vehicle 1 is provided with a peripheral imaging camera 187 that images the periphery (including the front) of the vehicle 1, and a pupil imaging camera 188.

制御部(HMI制御部)300は、視点位置検出部192と、ライトフィールドレンダリング部193と、ROM215と、VRAM201と、画像描画部202と、を有する。 The control unit (HMI control unit) 300 includes a viewpoint position detection unit 192, a light field rendering unit 193, a ROM 215, a VRAM 201, and an image drawing unit 202.

ライトフィールドレンダリング部193は、先に説明したLF補正値等を用いたLF補正を実施するLF補正部194と、事前歪み補正(ワーピング)を実施する事前歪み補正部(ワーピング処理部)195と、を有する。 The light field rendering unit 193 includes an LF correction unit 194 that performs LF correction using the LF correction value described above, and a pre-distortion correction unit (warping processing unit) 195 that performs pre-distortion correction (warping). has.

また、ROM215は、ワーピングパラメータテーブル(画像変換テーブル)217と、LF補正値テーブル218と、が記憶されている。ワーピングパラメータテーブル(画像変換テーブル)217やLF補正値テーブル218は、例えば、先に図9に示したような形式のデータ構造を有する。 Further, the ROM 215 stores a warping parameter table (image conversion table) 217 and an LF correction value table 218. The warping parameter table (image conversion table) 217 and the LF correction value table 218 have, for example, a data structure in the format shown in FIG. 9 above.

VRAM201には、原画像データ(例えば多視点画像のサンプル)196が格納され得る。また、VRAM201には、レンダリング後のデータも、一時的に格納され得る。 Original image data (eg, samples of multi-view images) 196 can be stored in the VRAM 201 . Furthermore, data after rendering may also be temporarily stored in the VRAM 201 .

画像描画部202は、立体表示部230に含まれる表示部210に、ライトフィールドデータを描画する。言い換えれば、ライトフィールド描画処理を実施する。 The image drawing unit 202 draws light field data on the display unit 210 included in the stereoscopic display unit 230. In other words, light field drawing processing is performed.

なお、図12の例では、周辺撮像カメラ187により撮像された画像について画像処理を施して対象物等を判定するために、画像処理部302が設けられている。また、各種の車両情報等を収集する車両ECU310が設けられている。また、GPS通信機能や各種の通信機能を有する通信部320と、各種のナビゲーション用情報を提供可能なナビゲーション用ECU330と、が設けられている。 In the example of FIG. 12, an image processing unit 302 is provided to process the image captured by the peripheral image capturing camera 187 to determine objects, etc. Also provided is a vehicle ECU 310 that collects various vehicle information, etc. Also provided is a communication unit 320 that has a GPS communication function and various communication functions, and a navigation ECU 330 that can provide various navigation information.

また、画像処理部302、車両ECU310、及びナビゲーション用ECU330の各々から、制御部300のライトフィールドレンダリング部193に、各種の情報が提供され得る。 Further, various types of information can be provided to the light field rendering unit 193 of the control unit 300 from each of the image processing unit 302, vehicle ECU 310, and navigation ECU 330.

なお、図12の例では、表示光E1により、第1の虚像(路面40に対して立設される画像の虚像)V1が表示され、表示光E2、E3により、第2の虚像(路面40に重畳される画像の虚像)V2が表示される。 In the example of FIG. 12, the display light E1 displays the first virtual image (virtual image of the image set up against the road surface 40) V1, and the display lights E2 and E3 display the second virtual image (the virtual image of the road surface 40). A virtual image (virtual image of the image superimposed on the image) V2 is displayed.

次に、図13を参照する。図13は、HUD装置の動作手順例を示す図である。ステップS1では、視点位置を示す情報(視点位置を推定可能な情報を含む)が制御部300に入力される。 Next, refer to FIG. 13. FIG. 13 is a diagram illustrating an example of the operation procedure of the HUD device. In step S1, information indicating the viewpoint position (including information that allows estimation of the viewpoint position) is input to the control unit 300.

ステップS2では、視点位置に応じて、例えば、凹面鏡(曲面ミラー)131の位置が決定される。ステップS3では、凹面鏡(曲面ミラー)131の位置に応じたLF補正値データが選択される。 In step S2, for example, the position of the concave mirror (curved mirror) 131 is determined according to the viewpoint position. In step S3, LF correction value data corresponding to the position of the concave mirror (curved mirror) 131 is selected.

ステップS4では、LF補正データの使用領域が決定(特定)される(図10参照)。ステップS5では、凹面鏡(曲面ミラー)の位置や視点位置等に応じた事前歪みデータ(ワーピングパラメータ)が選択される。 In step S4, the usage area of the LF correction data is determined (specified) (see FIG. 10). In step S5, pre-distortion data (warping parameters) are selected depending on the position of the concave mirror (curved mirror), the viewpoint position, and the like.

ステップS6では、ライトフィールドデータのレンダリングによる生成が実施される。このとき、LF補正処理、ワーピング処理(ワーピング補正)も併せて実施される。言い換えれば、LF補正とワーピングを伴うライトフィールドレンダリングが実施され、これによって、画像(例えば左右の各目用の視差画像)の表示用データであるライトフィールドデータが生成される。 In step S6, light field data is generated by rendering. At this time, LF correction processing and warping processing (warping correction) are also performed. In other words, light field rendering with LF correction and warping is performed, thereby generating light field data that is display data of an image (for example, parallax images for the left and right eyes).

ステップS7では、立体表示部230の表示部210に、ライトフィールドデータが描画される。これによって、ディスプレイ210の表示面215上で、所定位置のピクセル又はサブピクセルが、所定パターンで発光し(図1参照)、これによって、立体像が表示され(図1、図2(A)参照)、その表示光が、光学系やウインドシールド等を介して、人の目に入射される。 In step S7, light field data is drawn on the display section 210 of the stereoscopic display section 230. As a result, pixels or sub-pixels at predetermined positions on the display surface 215 of the display 210 emit light in a predetermined pattern (see FIG. 1), thereby displaying a three-dimensional image (see FIGS. 1 and 2(A)). ), the display light enters the human eye via an optical system, a windshield, etc.

以上説明したように、本発明によれば、HUD装置において、視認者の目の高さ位置に応じてクロストーク等が発生することを抑制することができる。 As described above, according to the present invention, it is possible to suppress the occurrence of crosstalk or the like depending on the eye level position of the viewer in the HUD device.

本明細書において、車両という用語は、広義に、乗り物としても解釈し得るものである。また、ナビゲーションに関する用語(例えば標識等)についても、例えば、車両の運行に役立つ広義のナビゲーション情報という観点等も考慮し、広義に解釈するものとする。また、HUD装置には、シミュレータ(例えば、航空機のシミュレータやゲーム機等)として使用されるものも含まれるものとする。また、表示部や光学部材の種類は、上記の実施形態に限定されるものではなく、種々のものを採用することができる。 In this specification, the term vehicle can also be broadly interpreted as a vehicle. In addition, terms related to navigation (for example, signs, etc.) shall be interpreted in a broad sense, taking into account, for example, the perspective of navigation information in a broad sense that is useful for vehicle operation. Furthermore, HUD devices include those used as simulators (for example, aircraft simulators, game consoles, etc.). Further, the types of the display section and optical members are not limited to those in the above embodiments, and various types can be adopted.

本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。 The invention is not limited to the exemplary embodiments described above, and those skilled in the art will be able to easily modify the exemplary embodiments described above to the extent that they fall within the scope of the claims. .

1・・・車両(自車両)、2・・・被投影部材(ウインドシールド等)、100・・・HUD装置(立体表示(3D)HUD装置)、129・・・アクチュエータ、131・・・曲面ミラー(凹面鏡等)、188・・・周辺撮像カメラ、188・・・瞳撮像カメラ(あるいは顔撮像カメラ)、189・・・アクチュエータ駆動部、192・・・視点位置検出部、193・・・ライトフィールドレンダリング部、194・・・LF補正部、195・・・事前歪み補正部(ワーピング処理部)、217・・・ワーピングパラメータ(事前歪み補正)テーブル、218・・・LF補正値テーブル、196・・・原画像データ、202・・・画像描画部、210・・・ディスプレイ(平面ディスプレイ)、215・・・表示面、220・・・光線分離部としての光学部材(レンチキュラレンズ等)、230・・・立体表示部(3Dディスプレイ部)、300・・・制御部(HMI制御部)、302・・・画像処理部、310・・・車両ECU、320・・・通信部、330・・・ナビゲーションECU DESCRIPTION OF SYMBOLS 1... Vehicle (own vehicle), 2... Projected member (windshield etc.), 100... HUD device (3D display (3D) HUD device), 129... Actuator, 131... Curved surface Mirror (concave mirror, etc.), 188... Peripheral imaging camera, 188... Pupil imaging camera (or face imaging camera), 189... Actuator drive section, 192... Viewpoint position detection section, 193... Light Field rendering section, 194... LF correction section, 195... Pre-distortion correction section (warping processing section), 217... Warping parameter (pre-distortion correction) table, 218... LF correction value table, 196. ...Original image data, 202... Image drawing unit, 210... Display (flat display), 215... Display surface, 220... Optical member as a light beam separation unit (lenticular lens, etc.), 230... ... Stereoscopic display unit (3D display unit), 300... Control unit (HMI control unit), 302... Image processing unit, 310... Vehicle ECU, 320... Communication unit, 330... Navigation ECU

Claims (2)

虚像を表示するヘッドアップディスプレイ(HUD)装置であって、
ディスプレイと、光学部材と、を含み、立体像の表示光を再現するライトフィールド方式の立体表示部と、
前記立体表示部により再現された前記表示光を被投影部材に投影する曲面ミラーを備える光学系と、
前記ディスプレイにおける画像の表示を制御する制御部と、
前記ディスプレイのピクセル又はサブピクセルを要素単位とするとき、所定の表示データによる表示がなされるべき要素単位を決めるLF補正値(Light Field rendering calibration parameter)を記憶する記憶部と、
を有し、
前記制御部は、
前記曲面ミラーの状態、及び前記曲面ミラーの状態によって位置が変化する虚像の視認可能範囲を示すアイボックス内における、視認者の目の高さ方向における位置の区分、に基づいて定まる前記LF補正値を用いてライトフィールドレンダリングを実施する、
ことを特徴とするヘッドアップディスプレイ装置。
A head-up display (HUD) device that displays a virtual image,
a light field type stereoscopic display section that includes a display and an optical member and reproduces display light of a stereoscopic image;
an optical system including a curved mirror that projects the display light reproduced by the three-dimensional display unit onto a projection target member;
a control unit that controls display of images on the display;
When pixels or sub-pixels of the display are used as element units, a storage unit that stores an LF correction value (Light Field rendering calibration parameter) that determines an element unit in which display based on predetermined display data should be performed;
has
The control unit includes:
The LF correction value is determined based on the state of the curved mirror and the classification of the position in the eye height direction of the viewer in an eye box indicating a visible range of a virtual image whose position changes depending on the state of the curved mirror. Perform light field rendering using
A head-up display device characterized by:
前記記憶部は、前記被投影部材、及び前記光学系の少なくとも1つによる虚像の歪みを抑制するように、前記ディスプレイに表示する画像を歪ませる、前記視認者の目位置に対応づけられた複数の事前歪みデータ(ワーピングパラメータ)を記憶しており、
前記制御部は、前記曲面ミラーの状態、及び前記曲面ミラーの状態によって位置が変化する前記アイボックス内における前記区分、に基づいて、前記LF補正値及び前記事前歪みデータを切り替える、
ことを特徴とする、請求項1に記載のヘッドアップディスプレイ装置。
The storage unit is configured to store a plurality of images corresponding to eye positions of the viewer that distort the image displayed on the display so as to suppress distortion of the virtual image caused by at least one of the projection target member and the optical system. It stores the pre-distortion data (warping parameters) of
The control unit switches the LF correction value and the pre -distortion data based on the state of the curved mirror and the division in the eyebox whose position changes depending on the state of the curved mirror .
The head-up display device according to claim 1, characterized in that:
JP2020093780A 2020-05-28 2020-05-28 heads up display device Active JP7456290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020093780A JP7456290B2 (en) 2020-05-28 2020-05-28 heads up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020093780A JP7456290B2 (en) 2020-05-28 2020-05-28 heads up display device

Publications (2)

Publication Number Publication Date
JP2021189279A JP2021189279A (en) 2021-12-13
JP7456290B2 true JP7456290B2 (en) 2024-03-27

Family

ID=78849548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020093780A Active JP7456290B2 (en) 2020-05-28 2020-05-28 heads up display device

Country Status (1)

Country Link
JP (1) JP7456290B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012131887A1 (en) 2011-03-29 2012-10-04 株式会社 東芝 Three-dimensional image display device
JP2015087619A (en) 2013-10-31 2015-05-07 日本精機株式会社 Vehicle information projection system and projection device
JP2019015823A (en) 2017-07-05 2019-01-31 京セラ株式会社 Three-dimensional projector, three-dimensional projection system, and movable body
JP2019030004A (en) 2017-07-28 2019-02-21 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing method, image processing device, computer program, and storage medium
DE102018200873A1 (en) 2018-01-19 2019-07-25 Robert Bosch Gmbh Autostereoscopic field of view display device for a vehicle, vehicle with an autostereoscopic field of view display device and method for generating an autostereoscopic image
US20190317324A1 (en) 2016-11-30 2019-10-17 Jaguar Land Rover Limited Multi-depth augmented reality display
WO2019224922A1 (en) 2018-05-22 2019-11-28 三菱電機株式会社 Head-up display control device, head-up display system, and head-up display control method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020059620A1 (en) * 2018-09-19 2021-09-16 日本精機株式会社 Display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012131887A1 (en) 2011-03-29 2012-10-04 株式会社 東芝 Three-dimensional image display device
JP2015087619A (en) 2013-10-31 2015-05-07 日本精機株式会社 Vehicle information projection system and projection device
US20190317324A1 (en) 2016-11-30 2019-10-17 Jaguar Land Rover Limited Multi-depth augmented reality display
JP2019015823A (en) 2017-07-05 2019-01-31 京セラ株式会社 Three-dimensional projector, three-dimensional projection system, and movable body
JP2019030004A (en) 2017-07-28 2019-02-21 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing method, image processing device, computer program, and storage medium
DE102018200873A1 (en) 2018-01-19 2019-07-25 Robert Bosch Gmbh Autostereoscopic field of view display device for a vehicle, vehicle with an autostereoscopic field of view display device and method for generating an autostereoscopic image
WO2019224922A1 (en) 2018-05-22 2019-11-28 三菱電機株式会社 Head-up display control device, head-up display system, and head-up display control method

Also Published As

Publication number Publication date
JP2021189279A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
JP3966830B2 (en) 3D display device
JP5364666B2 (en) Stereoscopic image display apparatus, method and program
JP5881732B2 (en) Image processing apparatus, stereoscopic image display apparatus, image processing method, and image processing program
US8427528B2 (en) Three-dimensional image display device and three-dimensional image display method
JP4714115B2 (en) 3D image display apparatus and 3D image display method
US20190373249A1 (en) Stereoscopic display device and head-up display
JP5306275B2 (en) Display device and stereoscopic image display method
CN102450001A (en) Multi-projector system and method
WO2012070103A1 (en) Method and device for displaying stereoscopic image
CN111869202B (en) Method for reducing crosstalk on autostereoscopic displays
US20010045951A1 (en) Autostereoscopic display driver
US20050083400A1 (en) Three-dimensional image display device, three-dimensional image display method and three-dimensional display image data generating method
WO2008038425A1 (en) Apparatus, method and computer program product for three-dimensional image processing
CN107113419A (en) Automatic stereo multi-view system
JP2010540980A (en) How to adjust the position of the parallax barrier screen on the display screen
CN112399168B (en) Multi-viewpoint image generation method, storage medium and display device
JP7456290B2 (en) heads up display device
CN108012556B (en) Autostereoscopic system
JP2020095271A (en) Device and method for displaying three-dimensional images
JP4119409B2 (en) 3D image display apparatus, 3D image display method, and 3D display image data generation method
KR20160081029A (en) Glass-free multiview autostereoscopic display device and method for image processing thereof
CN103969836A (en) View angle expanding method used for multi-viewpoint auto-stereoscopic display
KR20230145477A (en) Autostereoscopic P-view display screen for displaying autostereoscopic I-view images and display device comprising such screen
JP2017107131A (en) Display device
JPH08331604A (en) Stereoscopic display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7456290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150