JP2014199385A - Display device and display method thereof - Google Patents

Display device and display method thereof Download PDF

Info

Publication number
JP2014199385A
JP2014199385A JP2013097249A JP2013097249A JP2014199385A JP 2014199385 A JP2014199385 A JP 2014199385A JP 2013097249 A JP2013097249 A JP 2013097249A JP 2013097249 A JP2013097249 A JP 2013097249A JP 2014199385 A JP2014199385 A JP 2014199385A
Authority
JP
Japan
Prior art keywords
distortion correction
display image
viewpoint position
center
correction parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013097249A
Other languages
Japanese (ja)
Inventor
寿巳 渡邊
Hisami Watanabe
寿巳 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2013097249A priority Critical patent/JP2014199385A/en
Publication of JP2014199385A publication Critical patent/JP2014199385A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve visibility by correcting distortion of a display image in the case of horizontal movement of viewer's viewpoint position and to suppress the increase in cost of components.SOLUTION: An HUD device 100 includes a ROM 22 in which a first distortion correction parameter for the case that a viewpoint position of a driver 102 is at the left end of a viewable range for a display image F, a second distortion correction parameter for the case that the viewpoint position is at the center of the viewable range, and a third distortion correction parameter for the case that the viewpoint position is at the right end of the viewable range are stored. A control unit 20 acquires one of the first to third distortion correction parameters on the basis of the viewpoint position or computes an interpolated distortion correction parameter by interpolation processing between two of the first to third distortion correction parameters and corrects distortion of the display image F projected on a windshield 101 on the basis of one of the first to third distortion correction parameters or the interpolated distortion correction parameter.

Description

本発明は、表示装置及びその表示方法に関するものである。   The present invention relates to a display device and a display method thereof.

従来の自動車等の車両の運転者に情報を表示する表示装置として、いわゆるヘッドアップディスプレイ装置(以下、HUD装置という)が知られている。HUD装置は、液晶表示パネル等の表示手段に表示される表示像をウィンドシールドなどの被投影手段に投影し、運転者に表示像の虚像を視認させるものである。   A so-called head-up display device (hereinafter referred to as a HUD device) is known as a display device that displays information to a driver of a vehicle such as a conventional automobile. The HUD device projects a display image displayed on a display unit such as a liquid crystal display panel onto a projection target unit such as a windshield so that a driver can visually recognize a virtual image of the display image.

HUD装置においては、被投影手段や凹面鏡などの光学系によって表示像を拡大することによって表示像に歪みが発生する。表示像が歪むと視認性が低下するため、表示像をあらかじめ逆に変形させて歪みを補正する技術が知られている(例えば特許文献1参照)。   In the HUD device, a display image is distorted by enlarging the display image by an optical system such as a projection target or a concave mirror. Since the visibility decreases when the display image is distorted, a technique for correcting the distortion by deforming the display image in advance reversely is known (see, for example, Patent Document 1).

特開平10−149085号公報Japanese Patent Laid-Open No. 10-149085 特開2007−158923号公報JP 2007-158923 A

特許文献1に開示される技術は、運転者の視点位置が設計基準位置である場合には歪みのない表示像を表示することができるものの、運転者の視点位置が左右に移動した場合には歪みが設計基準位置とは異なるため、表示像に歪みが生じるという問題点があった。これに対し、例えば特許文献2には、観察者の視点位置に基づいて表示画像の歪みを補正する方法が開示されている。しかしながら、かかる方法においては、表示画像の歪みを補正する歪み補正パラメータを視点位置に応じて複数記憶装置に保持することが考えられるものもの、歪み補正パラメータの容量が大きくなると部品コストが増大するという点でなお改良の余地があった。   The technique disclosed in Patent Literature 1 can display a display image without distortion when the viewpoint position of the driver is the design reference position, but when the viewpoint position of the driver moves left and right. Since the distortion is different from the design reference position, there is a problem that the display image is distorted. On the other hand, for example, Patent Document 2 discloses a method for correcting distortion of a display image based on the viewpoint position of an observer. However, in such a method, it is conceivable to store distortion correction parameters for correcting distortion of a display image in a plurality of storage devices in accordance with the viewpoint position. However, if the capacity of the distortion correction parameters increases, the component cost increases. There was still room for improvement.

そこで本発明は、前記問題点を解消し、観察者の視点位置が左右に移動した場合であっても表示像の歪みを補正して視認性を向上させ、また部品コストの増大を抑制することが可能な表示装置及びその表示方法を提供することを目的とするものである。   Therefore, the present invention solves the above-described problems, corrects the distortion of the display image even when the observer's viewpoint position moves to the left and right, improves visibility, and suppresses an increase in component costs. It is an object of the present invention to provide a display device and a display method thereof.

本発明の表示装置は、前記課題を解決するために、表示画像を表示する表示手段と、
前記表示画像を前記表示手段に表示させる表示制御手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置であって、
前記視点位置が前記表示画像の視認可能範囲の左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の右端である場合の第三の歪み補正パラメータと、を記憶する記憶部を備え、
前記表示制御手段は、前記視点位置に基づいて前記第一から第三の歪み補正パラメータのいずれかを取得して、または、前記第一から第三の歪み補正パラメータのうち2つの間を補間処理して補間歪み補正パラメータを算出して、前記第一から第三の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする。
In order to solve the above problems, the display device of the present invention includes a display means for displaying a display image,
Display control means for displaying the display image on the display means;
A position detecting means capable of detecting an observer's viewpoint position, and projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is the left end of the visible range of the display image; a second distortion correction parameter when the viewpoint position is the center of the visible range of the display image; A third distortion correction parameter when the viewpoint position is the right end of the visible range of the display image;
The display control means acquires one of the first to third distortion correction parameters based on the viewpoint position, or performs an interpolation process between two of the first to third distortion correction parameters. And calculating an interpolation distortion correction parameter to correct the distortion of the display image when projected onto the projection member based on any of the first to third distortion correction parameters or the interpolation distortion correction parameter. It is characterized by doing.

本発明の表示装置の表示方法は、前記課題を解決するために、表示画像を表示する表示手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置の表示方法であって、
前記視点位置が前記表示画像の視認可能範囲の左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の右端である場合の第三の歪み補正パラメータと、を記憶する記憶部を備え、
前記視点位置に基づいて、前記第一から第三の歪み補正パラメータのいずれかを取得して、または、前記第一から第三の歪み補正パラメータのうち2つの間を補間処理して補間歪み補正パラメータを算出して、前記第一から第三の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする。
In order to solve the above problems, a display method of a display device of the present invention includes a display unit that displays a display image;
A position detection means capable of detecting a viewer's viewpoint position, and a display device display method for projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is the left end of the visible range of the display image; a second distortion correction parameter when the viewpoint position is the center of the visible range of the display image; A third distortion correction parameter when the viewpoint position is the right end of the visible range of the display image;
Either one of the first to third distortion correction parameters is acquired based on the viewpoint position, or interpolation processing is performed by interpolating between two of the first to third distortion correction parameters. Calculating a parameter, and correcting distortion of the display image when projected onto the projection member based on any of the first to third distortion correction parameters or the interpolation distortion correction parameter. To do.

本発明の表示装置は、前記課題を解決するために、表示画像を表示する表示手段と、
前記表示画像を前記表示手段に表示させる表示制御手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置であって、
前記視点位置が前記表示画像の視認可能範囲の上端かつ左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ左右中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ右端である場合の第三の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左端である場合の第四の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左右中央である場合の第五の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ右端である場合の第六の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左端である場合の第七の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左右中央である場合の第八の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ右端である場合の第九の歪み補正パラメータと、を記憶する記憶部を備え、
前記表示制御手段は、前記視点位置に基づいて前記第一から第九の歪み補正パラメータのいずれかを取得して、または、前記第一から第九の歪み補正パラメータのうち複数の間を補間処理して補間歪み補正パラメータを算出して、前記第一から第九の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする。
In order to solve the above problems, the display device of the present invention includes a display means for displaying a display image,
Display control means for displaying the display image on the display means;
A position detecting means capable of detecting an observer's viewpoint position, and projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is at the upper end and the left end of the viewable range of the display image, and a second when the viewpoint position is at the upper end and the left and right center of the viewable range of the display image A distortion correction parameter, a third distortion correction parameter when the viewpoint position is the upper end and the right end of the viewable range of the display image, and the viewpoint position is the upper and lower center and the left end of the viewable range of the display image. The fourth distortion correction parameter in the case, the fifth distortion correction parameter in the case where the viewpoint position is the vertical center and the horizontal center of the display image viewable range, and the viewpoint position is the viewable range of the display image. And a seventh distortion correction parameter when the viewpoint position is the lower end and the left end of the viewable range of the display image. A meter, an eighth distortion correction parameter when the viewpoint position is the lower end and the center of the left and right of the display image, and the viewpoint position is the lower end and the right end of the display image A ninth storage unit for storing distortion correction parameters;
The display control means acquires any one of the first to ninth distortion correction parameters based on the viewpoint position, or interpolates between a plurality of the first to ninth distortion correction parameters. Then, the interpolation distortion correction parameter is calculated, and the distortion of the display image when projected onto the projection member is corrected based on any of the first to ninth distortion correction parameters or the interpolation distortion correction parameter. It is characterized by doing.

本発明の表示装置の表示方法は、前記課題を解決するために、表示画像を表示する表示手段と、
前記表示画像を前記表示手段に表示させる表示制御手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置の表示方法であって、
前記視点位置が前記表示画像の視認可能範囲の上端かつ左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ左右中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ右端である場合の第三の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左端である場合の第四の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左右中央である場合の第五の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ右端である場合の第六の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左端である場合の第七の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左右中央である場合の第八の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ右端である場合の第九の歪み補正パラメータと、を記憶する記憶部を備え、
前記表示制御手段は、前記視点位置に基づいて前記第一から第九の歪み補正パラメータのいずれかを取得して、または、前記第一から第九の歪み補正パラメータのうち複数の間を補間処理して補間歪み補正パラメータを算出して、前記第一から第九の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする。
In order to solve the above problems, a display method of a display device of the present invention includes a display unit that displays a display image;
Display control means for displaying the display image on the display means;
A position detection means capable of detecting a viewer's viewpoint position, and a display device display method for projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is at the upper end and the left end of the viewable range of the display image, and a second when the viewpoint position is at the upper end and the left and right center of the viewable range of the display image A distortion correction parameter, a third distortion correction parameter when the viewpoint position is the upper end and the right end of the viewable range of the display image, and the viewpoint position is the upper and lower center and the left end of the viewable range of the display image. The fourth distortion correction parameter in the case, the fifth distortion correction parameter in the case where the viewpoint position is the vertical center and the horizontal center of the display image viewable range, and the viewpoint position is the viewable range of the display image. And a seventh distortion correction parameter when the viewpoint position is the lower end and the left end of the viewable range of the display image. A meter, an eighth distortion correction parameter when the viewpoint position is the lower end and the center of the left and right of the display image, and the viewpoint position is the lower end and the right end of the display image A ninth storage unit for storing distortion correction parameters;
The display control means acquires any one of the first to ninth distortion correction parameters based on the viewpoint position, or interpolates between a plurality of the first to ninth distortion correction parameters. Then, the interpolation distortion correction parameter is calculated, and the distortion of the display image when projected onto the projection member is corrected based on any of the first to ninth distortion correction parameters or the interpolation distortion correction parameter. It is characterized by doing.

本発明は、所期の目的を達成することができ、観察者の視点位置が左右に移動した場合であっても表示像の歪みを補正して視認性を向上させ、また部品コストの増大を抑制することが可能となる。   The present invention can achieve the intended purpose, improve the visibility by correcting the distortion of the display image even when the viewpoint position of the observer moves left and right, and increase the cost of parts. It becomes possible to suppress.

本発明の第一の実施形態のヘッドアップディスプレイ装置の概略図である。It is the schematic of the head-up display apparatus of 1st embodiment of this invention. 同上の制御部の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a control part same as the above. 同上における制御方法を示すフローチャート図である。It is a flowchart figure which shows the control method in the same as the above. 同上における視点検知を説明する図である。It is a figure explaining the viewpoint detection in the same as the above. 同上における画像補正方法を示すフローチャート図である。It is a flowchart figure which shows the image correction method in the same as the above. 同上における視点角度と歪み補正パラメータとの関係を示す図である。It is a figure which shows the relationship between the viewpoint angle and distortion correction parameter in the same as the above. 同上における歪み補正パラメータの一例を示す図である。It is a figure which shows an example of the distortion correction parameter in the same as the above. 同上における三角パッチの一例を示す図である。It is a figure which shows an example of the triangular patch in the same as the above. 同上における補正前の表示画像Fと補正後の表示画像Fの一例を示す図である。It is a figure which shows an example of the display image F before correction | amendment in the same as the above, and the display image F after correction | amendment. 本発明の第二の実施形態のヘッドアップディスプレイ装置における画像補正方法を示すフローチャート図である。It is a flowchart figure which shows the image correction method in the head-up display apparatus of 2nd embodiment of this invention. 同上における視点角度と歪み補正パラメータとの関係を示す図である。It is a figure which shows the relationship between the viewpoint angle and distortion correction parameter in the same as the above. 同上における歪み補正パラメータの一例を示す図である。It is a figure which shows an example of the distortion correction parameter in the same as the above.

以下、添付図面を用いて本発明をヘッドアップディスプレイ(HUD)装置100に適用した第一の実施形態を説明する。
HUD装置100は、車両の車室内のダッシュボード内に設置されるものであり、図1に示すように、撮像部(位置検出手段)10と、制御部20と、表示手段30と、凹面鏡40と、を備える。HUD装置100から出力された所定の表示画像Fを示す表示光Lは車両のウィンドシールド101にて反射し、運転者(観察者)102の眼に達する。運転者102は、ウィンドシールド101の前方に表示される表示画像Fの虚像Vを視認する。
Hereinafter, a first embodiment in which the present invention is applied to a head-up display (HUD) device 100 will be described with reference to the accompanying drawings.
The HUD device 100 is installed in a dashboard in a vehicle interior of a vehicle, and as shown in FIG. 1, an imaging unit (position detection unit) 10, a control unit 20, a display unit 30, and a concave mirror 40. And comprising. The display light L indicating the predetermined display image F output from the HUD device 100 is reflected by the windshield 101 of the vehicle and reaches the eyes of the driver (observer) 102. The driver 102 visually recognizes the virtual image V of the display image F displayed in front of the windshield 101.

撮像部10は、CCD等の周知の撮像素子とこれを制御する周辺回路やレンズからなり、運転者102の前方に設置され、運転者102の顔を撮像して撮像画像を出力するものである。   The imaging unit 10 includes a known imaging device such as a CCD and peripheral circuits and lenses that control the imaging device. The imaging unit 10 is installed in front of the driver 102 and images the face of the driver 102 and outputs a captured image. .

制御部20は、いわゆるマイクロコンピュータからなるものである。制御部20は、撮像部10や表示手段30と接続され、撮像部10から出力される運転者102の顔画像を解析して運転者102の視点位置を算出する視点位置検出処理を行い、この算出結果に基づいて表示手段30に対して制御信号を出力して画像表示制御を行う。すなわち、制御部20は、撮像部10とともに本発明の位置検出手段として機能し、また、本発明の表示制御手段として機能する。制御部20は、所定の表示画像を生成し、この表示画像を表示手段30に表示させる。   The control unit 20 is a so-called microcomputer. The control unit 20 is connected to the imaging unit 10 and the display unit 30, performs a viewpoint position detection process for analyzing the face image of the driver 102 output from the imaging unit 10 and calculating the viewpoint position of the driver 102. Based on the calculation result, a control signal is output to the display means 30 to perform image display control. That is, the control unit 20 functions as the position detection unit of the present invention together with the imaging unit 10 and also functions as the display control unit of the present invention. The control unit 20 generates a predetermined display image and causes the display unit 30 to display the display image.

表示手段30は、例えばバックライト光源31とドットマトリクス型の液晶表示パネル32とからなるものであり、表示画像Fを表示光Lとして凹面鏡40に向けて発するものである。なお、表示手段30は、表示画像Fを表示光Lとして出射するものであればよく、有機ELパネルなどの自発光型の表示パネルを用いても良い。   The display means 30 includes, for example, a backlight light source 31 and a dot matrix type liquid crystal display panel 32, and emits the display image F as display light L toward the concave mirror 40. The display means 30 may be anything that emits the display image F as display light L, and may be a self-luminous display panel such as an organic EL panel.

凹面鏡40は、表示光Lが運転者102の左右の眼に対して結像するように、表示光Lをウィンドシールド101に照射するものである。凹面鏡40は、図示していない回転軸を備えている。この回転軸は、図1の図面に対して垂直方向であり、この回転軸を中心として、凹面鏡40のウィンドシールド101に対する角度を変えることが可能である。また、凹面鏡40には、凹面鏡40の角度を変えるために、駆動手段としてモータ(図示しない)を備えており、このモータによって、凹面鏡40のウィンドシールド101に対する角度を変更し、また、その角度を維持することができる。以上により、表示光Lを運転者102の目線に合わせることが可能となる。   The concave mirror 40 irradiates the windshield 101 with the display light L so that the display light L is focused on the left and right eyes of the driver 102. The concave mirror 40 includes a rotation shaft (not shown). The rotation axis is perpendicular to the drawing of FIG. 1, and the angle of the concave mirror 40 with respect to the windshield 101 can be changed around the rotation axis. Further, the concave mirror 40 is provided with a motor (not shown) as a driving means for changing the angle of the concave mirror 40, and the angle of the concave mirror 40 with respect to the windshield 101 is changed by this motor, and the angle is changed. Can be maintained. As described above, the display light L can be adjusted to the driver's 102 line of sight.

図2は、制御部20の電気的構成を示すものである。制御部20は、図2に示すように、CPU21、ROM22、汎用メモリ23、ビデオメモリ24及び外部デバイスI/F25を有してなる。   FIG. 2 shows an electrical configuration of the control unit 20. As shown in FIG. 2, the control unit 20 includes a CPU 21, a ROM 22, a general-purpose memory 23, a video memory 24, and an external device I / F 25.

CPU21は、ROM22内に予め記憶された所定のプログラムを読み出し、実行して撮像部10からの撮像画像、これを画像処理した処理画像及び視点位置などの演算結果等を汎用メモリ23に一時的に記憶させ、また、表示画像Fを作成するための画像処理を行う回路を使用して、表示手段30で表示させる表示画像Fをビデオメモリ24に記憶させる。   The CPU 21 reads out and executes a predetermined program stored in advance in the ROM 22, temporarily stores the captured image from the imaging unit 10, a processed image obtained by performing image processing on the image, a calculation result such as a viewpoint position, and the like in the general-purpose memory 23. Further, the display image F to be displayed on the display means 30 is stored in the video memory 24 using a circuit that performs image processing for creating the display image F.

ROM22は、CPU21が動作するプログラムや後述する歪み補正パラメータなどが記憶されるものである。   The ROM 22 stores a program for operating the CPU 21, distortion correction parameters described later, and the like.

汎用メモリ23は、撮像部10からの撮像画像、これを画像処理した処理画像及び視点位置などの演算結果等を一時的に記憶するものである。   The general-purpose memory 23 temporarily stores a captured image from the imaging unit 10, a processed image obtained by performing image processing on the captured image, a calculation result such as a viewpoint position, and the like.

ビデオメモリ24は、表示手段30で表示させる表示画像Fを記憶するものである。   The video memory 24 stores a display image F to be displayed on the display means 30.

外部デバイスI/F25は、制御部20を撮像部10、表示手段30及び車両を制御するコンピュータからなる車両制御システム部103と電気的に接続するものである。外部デバイスI/F25は、撮像部10から撮像画像を取得し、表示手段30に制御信号を出力し、また、車両制御システム部103から車速などの車両情報を取得する。CPU21は、取得した車両情報に基づいて表示手段30に車両情報を表示させることができる。   The external device I / F 25 electrically connects the control unit 20 to a vehicle control system unit 103 including a computer that controls the imaging unit 10, the display unit 30, and the vehicle. The external device I / F 25 acquires a captured image from the imaging unit 10, outputs a control signal to the display unit 30, and acquires vehicle information such as a vehicle speed from the vehicle control system unit 103. CPU21 can display vehicle information on the display means 30 based on the acquired vehicle information.

次に、図3を用いて制御部20における視点検出処理及び画像表示制御について説明する。   Next, viewpoint detection processing and image display control in the control unit 20 will be described with reference to FIG.

まず、CPU21は、ステップS1において、撮像部10から出力される運転者102の顔を撮像した撮像画像から、運転者102の左眼及び右眼を検知する。具体的には、図4に示すように、運転者102の顔を含む撮像画像Pに対して、例えば周知の画像処理技術であるテンプレートマッチングを行い、所定のテンプレートTを撮像画像P上で移動させ、テンプレートTとマッチングする個所を撮像画像P上の運転者102の左眼と右眼として検知する。   First, in step S <b> 1, the CPU 21 detects the left eye and the right eye of the driver 102 from the captured image obtained by capturing the face of the driver 102 output from the imaging unit 10. Specifically, as shown in FIG. 4, for example, template matching which is a well-known image processing technique is performed on the captured image P including the face of the driver 102, and a predetermined template T is moved on the captured image P. Then, the location that matches the template T is detected as the left eye and the right eye of the driver 102 on the captured image P.

次に、CPU21は、ステップS2において、ステップS1で検知した撮像画像P上の運転者102の左眼と右眼の位置に基づいて運転者102の空間上の左眼視点位置と右眼視点位置とを算出する。この左眼視点位置及び右眼視点位置の位置情報は2次元情報であっても3次元情報であってもよい。   Next, in step S2, the CPU 21 determines the left eye viewpoint position and the right eye viewpoint position in the space of the driver 102 based on the positions of the left eye and the right eye of the driver 102 on the captured image P detected in step S1. And calculate. The position information of the left eye viewpoint position and the right eye viewpoint position may be two-dimensional information or three-dimensional information.

次に、CPU21は、ステップS3において、ステップS2で算出した運転者102の左眼視点位置及び右眼視点位置に対応するように表示画像Fの歪み補正を行い、表示画像Fを生成する。なお、表示画像Fの歪み補正方法については後で詳述する。   Next, in step S3, the CPU 21 corrects the distortion of the display image F so as to correspond to the left eye viewpoint position and right eye viewpoint position of the driver 102 calculated in step S2, and generates the display image F. The distortion correction method for the display image F will be described in detail later.

次に、CPU21は、ステップS4において、表示手段30に表示画像Fを表示させて表示光Lをウィンドシールド101に投影し、運転者102に虚像Vを視認させる。   Next, in step S4, the CPU 21 displays the display image F on the display unit 30, projects the display light L onto the windshield 101, and causes the driver 102 to visually recognize the virtual image V.

CPU21は、電源がオフされるまでステップS1〜S4を無限ループで実行する。   The CPU 21 executes steps S1 to S4 in an infinite loop until the power is turned off.

次に、図5を用いて表示画像Fの歪み補正方法の一例を説明する。   Next, an example of a distortion correction method for the display image F will be described with reference to FIG.

まず、CPU21は、ステップS11において、ステップS2で算出した左眼視点位置及び右眼視点位置から水平方向の視点角度θxを算出する。具体的には、虚像Vの焦点面からの垂線を基準として、視点位置の中心(左眼視点位置と右眼視点位置との中心)と虚像Vの焦点面からの垂線とのなす水平方向の角度を視点角度θxとして算出する。本実施形態において、視点角度θxは、視点位置の中心が虚像Vの視認可能範囲の中央(設計基準位置)である場合は0°(θx=0°)となり、視点位置の中心が虚像Vの視認可能範囲の中央より運転者102から見て左側に位置する場合にはマイナスの値(θx=−a°)となり、視点位置の中心が虚像Vの視認可能範囲の中央より運転者102から見て右側に位置する場合にはプラスの値(θx=a°)となるものとする(aは正の数)。   First, in step S11, the CPU 21 calculates a horizontal viewpoint angle θx from the left eye viewpoint position and right eye viewpoint position calculated in step S2. Specifically, with reference to the perpendicular line from the focal plane of the virtual image V, the horizontal position formed by the center of the viewpoint position (the center between the left eye viewpoint position and the right eye viewpoint position) and the perpendicular line from the focal plane of the virtual image V The angle is calculated as the viewpoint angle θx. In this embodiment, the viewpoint angle θx is 0 ° (θx = 0 °) when the center of the viewpoint position is the center of the visible range of the virtual image V (design reference position), and the center of the viewpoint position is the virtual image V. When it is located on the left side as viewed from the driver 102 from the center of the visible range, a negative value (θx = −a °) is obtained, and the center of the viewpoint position is viewed from the center of the visible range of the virtual image V from the driver 102. If it is located on the right side, a positive value (θx = a °) is assumed (a is a positive number).

次に、CPU21は、ステップS12において、ステップS11で算出した視点角度に対応する歪み補正パラメータを取得する。歪み補正パラメータは、例えば図6に示すように、3つの視点角度に応じて複数設定され、ROM22に保存されるものである。すなわち、視点位置の中心が表示画像F(虚像V)の視認可能範囲の左端である場合の視点角度θx(θx=−60°)に対応する第一の歪み補正パラメータRP1と、視点位置の中心が表示画像Fの視認可能範囲の中央である場合の視点角度θx(θx=0°)に対応する第二の歪み補正パラメータRP2と、視点位置の中心が表示画像Fの視認可能範囲の左端である場合の視点角度θx(θx=−60°)に対応する第三の歪み補正パラメータRP3と、がROM22に記憶される。なお、視点位置の中心が表示画像Fの視認可能範囲の左右端である場合の視点角度θxは、本実施形態に限定されるものではなく任意に定められるものである。第一〜第三の歪み補正パラメータRP1〜RP3の各々は、図7に示すように、後述するテクスチャマッピングで用いられる三角パッチの複数の頂点の表示手段30の表示面上のx軸(横軸)方向の位置とy軸(縦軸)方向の位置を示す値(原点からのドット数)を有する。図7においては第一〜第三の歪み補正パラメータRP1〜RP3に1番〜25番の25個の頂点のx軸方向の値とy軸方向の値と設定した例を示しているが、頂点の数は任意である。第一〜第三の歪み補正パラメータRP1〜RP3において、三角パッチの頂点のx軸方向の位置とy軸方向の位置とは、ウィンドシールド101に投影された表示画像Fを対応する視点角度θxから見た際に生じる歪みと逆方向の歪みが生じるように設定されている。   Next, in step S12, the CPU 21 acquires a distortion correction parameter corresponding to the viewpoint angle calculated in step S11. For example, as shown in FIG. 6, a plurality of distortion correction parameters are set according to three viewpoint angles, and are stored in the ROM 22. That is, the first distortion correction parameter RP1 corresponding to the viewpoint angle θx (θx = −60 °) when the center of the viewpoint position is the left end of the visible range of the display image F (virtual image V), and the center of the viewpoint position Is the center of the viewable range of the display image F, the second distortion correction parameter RP2 corresponding to the viewpoint angle θx (θx = 0 °), and the center of the viewpoint position is the left end of the viewable range of the display image F A third distortion correction parameter RP3 corresponding to a certain viewpoint angle θx (θx = −60 °) is stored in the ROM 22. Note that the viewpoint angle θx in the case where the center of the viewpoint position is the left and right ends of the visible range of the display image F is not limited to the present embodiment and is arbitrarily determined. As shown in FIG. 7, each of the first to third distortion correction parameters RP1 to RP3 has an x-axis (horizontal axis) on the display surface of the display means 30 of a plurality of vertices of a triangular patch used in texture mapping described later. ) Direction position and y-axis (vertical axis) direction position (number of dots from the origin). FIG. 7 shows an example in which values in the x-axis direction and values in the y-axis direction of 25 vertices 1 to 25 are set in the first to third distortion correction parameters RP1 to RP3. The number of is arbitrary. In the first to third distortion correction parameters RP1 to RP3, the position in the x-axis direction and the position in the y-axis direction of the apex of the triangular patch are determined from the viewpoint angle θx corresponding to the display image F projected on the windshield 101. It is set so that distortion occurs in the opposite direction to the distortion that occurs when viewed.

第一〜第三の歪み補正パラメータRP1〜RP3は、ルックアップテーブルとしてROM22に保存され、CPU21は算出された視点角度θxに基づいて以下のようにROM22から第一〜第三の歪み補正パラメータRP1〜RP3を読み出す。まず、視点角度θxが−60°、0°、60°の何れかである場合には、CPU21は、視点角度θxに対応する第一〜第三の歪み補正パラメータRP1〜RP3の何れかをROM22から読み出す。また、視点角度θxが第一〜第三の歪み補正パラメータRP1〜RP3と対応しない値である場合(例えば視点角度θx=−30°である場合や視点角度θx=30°である場合)は、CPU21は、第一〜第三の歪み補正パラメータRP1〜RP3のうちをその前後の視点角度θxに対応する2つの歪み補正パラメータを取得して両者の間の補間処理を行い、算出された視点角度θxに対応する補間歪み補正パラメータRP’を取得する。すなわち、視点位置の中心が表示画像Fの視認可能範囲の中央と左端との間に位置する場合(視点角度θxがマイナス(θx=−a°)の場合)には、CPU21は第一,第二の歪み補正パラメータRP1,RP2の間を補間処理して補間歪み補正パラメータRP’を算出し、視点位置の中心が表示画像Fの視認可能範囲の中央と右端との間に位置する場合(視点角度θxがプラス(θx=a°)の場合)には、CPU21は第二,第三の歪み補正パラメータRP2,RP3の間を補間処理して補間歪み補正パラメータRP’を算出する。補間処理の一例として、歪み補正パラメータRPnと歪み補正パラメータRPn+1との中点を補間歪み補正パラメータRP’として取得する場合、補間歪み補正パラメータRP’のm番の頂点のx軸方向の値xmとy軸方向の値ymとは以下の(式1)で求められる。
(式1)
xm=(xnm−x(n+1)m)/2
ym=(ynm−y(n+1)m)/(xnm−x(n+1)m)×xm+ynm
なお、xnmとynmは、それぞれ歪み補正パラメータRPnにおけるm番の頂点のx軸方向の値とy軸方向の値を示し、x(n+1)mとy(n+1)mは、それぞれ歪み補正パラメータRPn+1におけるm番の頂点のx軸方向の値とy軸方向の値を示す。
また、補間関数として用いる多項式には、代表的なものとして線形補間のほかに、3次補間やラグランジュ補間、スプライン補間などがあるが、いずれを使用して補間処理を行っても良い。また、歪みが大きい個所に位置する頂点について補間処理に使用する補間関数に高次の多項式を用い、歪みが小さい個所に位置する頂点について補間処理に使用する補間関数に低次の多項式を用いるなど、多項式を対応点毎に変更してもよい。高次の多項式は計算量が増えるものの、歪みの補正精度は向上する。一方、低次の多項式は歪みの補正精度は低いが、計算量が少ない。両者を対応点によって使い分けることで、歪みの補正精度と計算速度の向上を両立させることができる。
The first to third distortion correction parameters RP1 to RP3 are stored in the ROM 22 as a lookup table, and the CPU 21 reads the first to third distortion correction parameters RP1 from the ROM 22 as follows based on the calculated viewpoint angle θx. Read ~ RP3. First, when the viewpoint angle θx is any one of −60 °, 0 °, and 60 °, the CPU 21 stores one of the first to third distortion correction parameters RP1 to RP3 corresponding to the viewpoint angle θx in the ROM 22. Read from. When the viewpoint angle θx is a value that does not correspond to the first to third distortion correction parameters RP1 to RP3 (for example, when the viewpoint angle θx = −30 ° or when the viewpoint angle θx = 30 °), The CPU 21 acquires two distortion correction parameters corresponding to the viewpoint angles θx before and after the first to third distortion correction parameters RP1 to RP3, performs an interpolation process between them, and calculates the calculated viewpoint angle An interpolation distortion correction parameter RP ′ corresponding to θx is acquired. That is, when the center of the viewpoint position is located between the center and the left end of the visible range of the display image F (when the viewpoint angle θx is negative (θx = −a °)), the CPU 21 performs the first and second operations. Interpolation processing between the second distortion correction parameters RP1 and RP2 is performed to calculate the interpolation distortion correction parameter RP ′, and the center of the viewpoint position is located between the center and the right end of the visible range of the display image F (viewpoint When the angle θx is positive (when θx = a °), the CPU 21 performs interpolation processing between the second and third distortion correction parameters RP2 and RP3 to calculate an interpolation distortion correction parameter RP ′. As an example of the interpolation processing, when the midpoint between the distortion correction parameter RPn and the distortion correction parameter RPn + 1 is acquired as the interpolation distortion correction parameter RP ′, the value xm in the x-axis direction of the m-th vertex of the interpolation distortion correction parameter RP ′ The value ym in the y-axis direction is obtained by the following (Formula 1).
(Formula 1)
xm = (xnm−x (n + 1) m) / 2
ym = (ynm−y (n + 1) m) / (xnm−x (n + 1) m) × xm + ynm
Note that xnm and ynm respectively indicate the value in the x-axis direction and the value in the y-axis direction of the m-th apex in the distortion correction parameter RPn, and x (n + 1) m and y (n + 1) m respectively indicate the distortion correction parameter RPn + 1. The value in the x-axis direction and the value in the y-axis direction of the m-th apex in FIG.
In addition to linear interpolation, there are three types of polynomials used as an interpolation function, such as cubic interpolation, Lagrangian interpolation, and spline interpolation. Any of them may be used for interpolation processing. In addition, a high-order polynomial is used for the interpolation function used for interpolation processing for vertices located at locations with high distortion, and a low-order polynomial is used for the interpolation function used for interpolation processing for vertices located at locations with low distortion. The polynomial may be changed for each corresponding point. Although higher-order polynomials require more computation, distortion correction accuracy is improved. On the other hand, low-order polynomials have a low distortion correction accuracy but a small amount of calculation. By properly using the two according to the corresponding points, both the distortion correction accuracy and the calculation speed can be improved.

次に、CPU21は、ステップS13において、ステップS12で取得した第一〜第三の歪み補正パラメータRP1〜RP3あるいは補間歪み補正パラメータRP’に基づいて、表示画像Fの歪みを補正する。具体的には、まず、CPU21は、図8に示すように、歪み補正パラメータRP1〜RP3あるいは補間歪み補正パラメータRP’として取得した各頂点のx軸方向の値とy軸方向の値とに基づいて三角パッチを作成する。次に、CPU21は、図9(a)に示すように、表示画像Fを三角パッチの個数(本実施形態では32個)と同数の略三角形状のテクスチャF1〜F32に分割し、さらに図9(b)に示すように、これらテクスチャF1〜F32を対応する三角パッチにテクスチャマッピングによって貼り付ける。なお、テクスチャマッピングはCPU21の画像処理を行う回路に実装されている機能を用いても良いし、ソフトウェアとして実装されている機能であってもよい。テクスチャマッピングによって得られた補正後の表示画像Fは、ウィンドシールド101に投影された表示画像Fを算出された視点角度θxから見た際に生じる歪みと逆方向の歪みが与えられ、補正後の表示画像Fを表示手段30に表示すると、ウィンドシールド101で投影された際には歪みのない表示画像Fが得られる。   Next, in step S13, the CPU 21 corrects the distortion of the display image F based on the first to third distortion correction parameters RP1 to RP3 or the interpolation distortion correction parameter RP 'acquired in step S12. Specifically, first, as shown in FIG. 8, the CPU 21 is based on the x-axis direction value and the y-axis direction value of each vertex acquired as the distortion correction parameters RP1 to RP3 or the interpolation distortion correction parameter RP ′. To create a triangular patch. Next, as shown in FIG. 9A, the CPU 21 divides the display image F into substantially triangular textures F <b> 1 to F <b> 32 as many as the number of triangular patches (32 in the present embodiment). As shown in (b), these textures F1 to F32 are pasted on the corresponding triangular patches by texture mapping. The texture mapping may use a function implemented in a circuit that performs image processing of the CPU 21 or may be a function implemented as software. The corrected display image F obtained by the texture mapping is given a distortion in a direction opposite to that generated when the display image F projected on the windshield 101 is viewed from the calculated viewpoint angle θx. When the display image F is displayed on the display means 30, the display image F without distortion is obtained when projected by the windshield 101.

CPU21は、ステップS11〜S13を実行することで表示画像Fの補正を実行する。   CPU21 performs the correction | amendment of the display image F by performing step S11-S13.

本実施形態におけるHUD装置100は、表示画像Fを表示する表示手段30と、表示画像Fを表示手段30に表示させる制御部20と、運転者102の視点位置を検出可能な位置検出手段(撮像部10及び制御部20)と、を備え、表示画像Fをウィンドシールド101に投影する表示装置であって、
前記視点位置が表示画像Fの視認可能範囲の左端である場合の第一の歪み補正パラメータRP1と、前記視点位置が表示画像Fの視認可能範囲の中央である場合の第二の歪み補正パラメータRP2と、前記視点位置が表示画像Fの視認可能範囲の右端である場合の第三の歪み補正パラメータRP3と、を記憶するROM22を備え、
制御部20は、前記視点位置に基づいて第一から第三の歪み補正パラメータRP1からRP3のいずれかを取得して、または、第一から第三の歪み補正パラメータRP1からRP3のうち2つの間を補間処理して補間歪み補正パラメータRP’を算出して、第一から第三の歪み補正パラメータRP1からRP3あるいは補間歪み補正パラメータRP’のいずれかに基づいてウィンドシールド101に投影されたときの表示画像Fの歪みを補正することを特徴とする。
The HUD device 100 according to the present embodiment includes a display unit 30 that displays a display image F, a control unit 20 that displays the display image F on the display unit 30, and a position detection unit that can detect the viewpoint position of the driver 102 (imaging). Unit 10 and control unit 20), and projecting the display image F onto the windshield 101,
A first distortion correction parameter RP1 when the viewpoint position is the left end of the visible range of the display image F, and a second distortion correction parameter RP2 when the viewpoint position is the center of the visible range of the display image F. And a ROM 22 that stores a third distortion correction parameter RP3 when the viewpoint position is the right end of the visible range of the display image F,
The control unit 20 acquires any one of the first to third distortion correction parameters RP1 to RP3 based on the viewpoint position, or between two of the first to third distortion correction parameters RP1 to RP3. Is interpolated to calculate an interpolation distortion correction parameter RP ′ and is projected onto the windshield 101 based on one of the first to third distortion correction parameters RP1 to RP3 or the interpolation distortion correction parameter RP ′. The distortion of the display image F is corrected.

また、HUD装置100の表示方法は、前記視点位置に基づいて第一から第三の歪み補正パラメータRP1からRP3のいずれかを取得して、または、第一から第三の歪み補正パラメータRP1からRP3のうち2つの間を補間処理して補間歪み補正パラメータRP’を算出して、第一から第三の歪み補正パラメータRP1からRP3あるいは補間歪み補正パラメータRP’のいずれかに基づいてウィンドシールド101に投影されたときの表示画像Fの歪みを補正することを特徴とする。   Further, the display method of the HUD device 100 acquires any one of the first to third distortion correction parameters RP1 to RP3 based on the viewpoint position, or the first to third distortion correction parameters RP1 to RP3. The interpolation distortion correction parameter RP ′ is calculated by interpolating between the two, and the windshield 101 is determined based on one of the first to third distortion correction parameters RP1 to RP3 or the interpolation distortion correction parameter RP ′. The distortion of the display image F when projected is corrected.

これによれば、運転者102の視点位置が左右に移動した場合であっても表示像の歪みを補正して視認性を向上させることができ、また、ROM22に記憶させる歪み補正パラメータを3つに抑制でき部品コストの増大を抑制することが可能となる。   According to this, even when the viewpoint position of the driver 102 moves to the left and right, the distortion of the display image can be corrected to improve the visibility, and three distortion correction parameters stored in the ROM 22 can be stored. It is possible to suppress the increase in component cost.

また、本実施形態におけるHUD装置100は、制御部20は、前記視点位置が表示画像Fの視認可能範囲の中央と左端との間に位置する場合には、第一,第二の歪み補正パラメータRP1,RP2の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の中央と右端との間に位置する場合には、第二,第三の歪み補正パラメータRP2,RP3の間を補間処理して補間歪み補正パラメータRP’を算出することを特徴とする。   Further, in the HUD device 100 according to the present embodiment, the control unit 20 causes the first and second distortion correction parameters when the viewpoint position is located between the center and the left end of the visible range of the display image F. Interpolation processing between RP1 and RP2 is performed to calculate an interpolation distortion correction parameter RP ′. When the viewpoint position is located between the center and the right end of the visible range of the display image F, the second and third The distortion correction parameters RP2 and RP3 are interpolated to calculate an interpolation distortion correction parameter RP ′.

また、HUD装置100の表示方法は、前記視点位置が表示画像Fの視認可能範囲の中央と左端との間に位置する場合には、第一,第二の歪み補正パラメータRP1,RP2の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の中央と右端との間に位置する場合には、第二,第三の歪み補正パラメータRP2,RP3の間を補間処理して補間歪み補正パラメータRP’を算出することを特徴とする。   Further, the display method of the HUD device 100 is such that when the viewpoint position is located between the center and the left end of the visible range of the display image F, the first and second distortion correction parameters RP1 and RP2 are set. Interpolation processing is performed to calculate the interpolation distortion correction parameter RP ′, and when the viewpoint position is located between the center and the right end of the visible range of the display image F, the second and third distortion correction parameters RP2, The interpolation distortion correction parameter RP ′ is calculated by performing interpolation processing between RP3.

これによれば、運転者102の視点位置が表示画像Fの視認可能範囲の中央と左右端の間に移動した場合であっても、精度の高い歪み補正をすることが可能となる。   According to this, even when the viewpoint position of the driver 102 moves between the center and the left and right ends of the visible range of the display image F, it is possible to perform highly accurate distortion correction.

次に、本発明の第二の実施形態について説明する。なお、前述の実施形態と同一あるいは相当箇所には同一符号を付してその詳細な説明は省略する。   Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the part which is the same as that of the above-mentioned embodiment, or the detailed description is abbreviate | omitted.

第二の実施形態が前述の実施形態と異なる点は、記憶部であるROM22に記憶される歪み補正パラメータ及びこれを用いた歪み補正方法である。以下、図10を用いて本実施形態における表示画像Fの歪み補正方法の一例を説明する。   The second embodiment is different from the above-described embodiment in a distortion correction parameter stored in the ROM 22 as a storage unit and a distortion correction method using the distortion correction parameter. Hereinafter, an example of the distortion correction method for the display image F in the present embodiment will be described with reference to FIG.

まず、CPU21は、ステップS21において、ステップS2で算出した左眼視点位置及び右眼視点位置から水平方向の視点角度θxを算出する。具体的には、虚像Vの焦点面からの垂線を基準として、視点位置の中心(左眼視点位置と右眼視点位置との中心)と虚像Vの焦点面からの垂線とのなす水平方向の角度を視点角度θxとして算出する。本実施形態において、水平方向の視点角度θxは、視点位置の中心が虚像Vの視認可能範囲の中央(設計基準位置)である場合は0°(θx=0°)となり、視点位置の中心が虚像Vの視認可能範囲の中央より運転者102から見て左側に位置する場合にはマイナスの値(θx=−a°)となり、視点位置の中心が虚像Vの視認可能範囲の中央より運転者102から見て右側に位置する場合にはプラスの値(θx=a°)となるものとする(aは正の数)。また、CPU21は、同様に垂直方向の視点角度θyを算出する。具体的には、虚像Vの焦点面からの垂線を基準として、視点位置の中心(左眼視点位置と右眼視点位置との中心)と虚像Vの焦点面からの垂線とのなす垂直方向の角度を視点角度θyとして算出する。本実施形態において、垂直方向の視点角度θyは、視点位置の中心が虚像Vの視認可能範囲の中央(設計基準位置)である場合は0°(θy=0°)となり、視点位置の中心が虚像Vの視認可能範囲の中央より運転者102から見て下側に位置する場合にはマイナスの値(θy=−b°)となり、視点位置の中心が虚像Vの視認可能範囲の中央より運転者102から見て上側に位置する場合にはプラスの値(θy=b°)となるものとする(bは正の数)。   First, in step S21, the CPU 21 calculates a horizontal viewpoint angle θx from the left eye viewpoint position and right eye viewpoint position calculated in step S2. Specifically, with reference to the perpendicular line from the focal plane of the virtual image V, the horizontal position formed by the center of the viewpoint position (the center between the left eye viewpoint position and the right eye viewpoint position) and the perpendicular line from the focal plane of the virtual image V The angle is calculated as the viewpoint angle θx. In the present embodiment, the horizontal viewpoint angle θx is 0 ° (θx = 0 °) when the center of the viewpoint position is the center of the visible range of the virtual image V (design reference position), and the center of the viewpoint position is When it is located on the left side when viewed from the driver 102 from the center of the visible range of the virtual image V, the value is negative (θx = −a °), and the center of the viewpoint position is from the center of the visible range of the virtual image V. When it is located on the right side when viewed from 102, it is assumed that the value is positive (θx = a °) (a is a positive number). Similarly, the CPU 21 calculates the vertical viewing angle θy. Specifically, with the vertical line from the focal plane of the virtual image V as a reference, the vertical position formed by the center of the viewpoint position (the center between the left eye viewpoint position and the right eye viewpoint position) and the vertical line from the focal plane of the virtual image V The angle is calculated as the viewpoint angle θy. In this embodiment, the viewpoint angle θy in the vertical direction is 0 ° (θy = 0 °) when the center of the viewpoint position is the center of the visible range of the virtual image V (design reference position), and the center of the viewpoint position is When it is located below the center of the visible range of the virtual image V when viewed from the driver 102, the value is negative (θy = −b °), and the center of the viewpoint position is driven from the center of the visible range of the virtual image V. When it is located on the upper side when viewed from the person 102, it is assumed that the value is positive (θy = b °) (b is a positive number).

次に、CPU21は、ステップS22において、ステップS21で算出した視点角度θx,θyに対応する歪み補正パラメータを取得する。歪み補正パラメータは、例えば図11に示すように、それぞれ3つの視点角度θx,θyの値の組み合わせに応じて複数設定され、ROM22に保存されるものである。すなわち、視点位置の中心が表示画像F(虚像V)の視認可能範囲の上端かつ左端である場合の視点角度θx(θx=−60°)と視点角度θy(θy=60°)との組み合わせに対応する第一の歪み補正パラメータRP1と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の上端かつ左右中央である場合の視点角度θx(θx=0°)と視点角度θy(θy=60°)との組み合わせに対応する第二の歪み補正パラメータRP2と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の上端かつ右端である場合の視点角度θx(θx=60°)と視点角度θy(θy=60°)との組み合わせに対応する第三の歪み補正パラメータRP3と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の上下中央かつ左端である場合の視点角度θx(θx=−60°)と視点角度θy(θy=0°)の組み合わせに対応する第四の歪み補正パラメータRP4と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の上下中央かつ左右中央である場合の視点角度θx(θx=0°)と視点角度θy(θy=0°)との組み合わせに対応する第五の歪み補正パラメータRP5と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の上下中央かつ右端である場合の視点角度θx(θx=60°)と視点角度θy(θy=0°)との組み合わせに対応する第六の歪み補正パラメータRP6と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の下端かつ左端である場合の視点角度θx(θx=−60°)と視点角度θy(θy=−60°)との組み合わせに対応する第七の歪み補正パラメータRP7と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の下端かつ左右中央である場合の視点角度θx(θx=0°)と視点角度θy(θy=−60°)との組み合わせに対応する第八の歪み補正パラメータRP8と、視点位置の中心が表示画像F(虚像V)の視認可能範囲の下端かつ右端である場合の視点角度θx(θx=60°)と視点角度θy(θy=−60°)との組み合わせに対応する第九の歪み補正パラメータRP9と、がROM22に記憶される。なお、視点位置の中心が表示画像Fの視認可能範囲の左右端である場合の視点角度θxと視点位置の中心が表示画像Fの視認可能範囲の上下端である場合の視点角度θyとは、本実施形態に限定されるものではなく任意に定められるものである。第一〜第九の歪み補正パラメータRP1〜RP9の各々は、図12に示すように、後述するテクスチャマッピングで用いられる三角パッチの複数の頂点の表示手段30の表示面上のx軸(横軸)方向の位置とy軸(縦軸)方向の位置を示す値(原点からのドット数)を有する。図12においては第一〜第九の歪み補正パラメータRP1〜RP9に1番〜25番の25個の頂点のx軸方向の値とy軸方向の値とを設定した例を示しているが、頂点の数は任意である。第一〜第九の歪み補正パラメータRP1〜RP9において、三角パッチの頂点のx軸方向の位置とy軸方向の位置とは、ウィンドシールド101に投影された表示画像Fを対応する視点角度θx,θyから見た際に生じる歪みと逆方向の歪みが生じるように設定されている。   Next, in step S22, the CPU 21 acquires distortion correction parameters corresponding to the viewpoint angles θx and θy calculated in step S21. For example, as shown in FIG. 11, a plurality of distortion correction parameters are set according to combinations of three viewpoint angles θx and θy, and are stored in the ROM 22. That is, a combination of the viewpoint angle θx (θx = −60 °) and the viewpoint angle θy (θy = 60 °) when the center of the viewpoint position is the upper end and the left end of the visible range of the display image F (virtual image V). The corresponding first distortion correction parameter RP1, the viewpoint angle θx (θx = 0 °) and the viewpoint angle θy (when the center of the viewpoint position is the upper end and the left and right center of the visible range of the display image F (virtual image V)). The second distortion correction parameter RP2 corresponding to the combination with θy = 60 °) and the viewpoint angle θx (θx = θx = θx = θx = θx = θx = θx = θx) when the center of the viewpoint position is the upper end and the right end of the viewable range of the display image F 60 °) and the third distortion correction parameter RP3 corresponding to the combination of the viewpoint angle θy (θy = 60 °) and the center of the viewpoint position at the upper and lower centers and the left end of the visible range of the display image F (virtual image V). View angle when there is Fourth distortion correction parameter RP4 corresponding to a combination of x (θx = −60 °) and viewpoint angle θy (θy = 0 °), and the center of the viewpoint position above and below the visible range of display image F (virtual image V) The fifth distortion correction parameter RP5 corresponding to the combination of the viewpoint angle θx (θx = 0 °) and the viewpoint angle θy (θy = 0 °) in the case of the center and the left-right center, and the center of the viewpoint position is the display image F A sixth distortion correction parameter RP6 corresponding to the combination of the viewpoint angle θx (θx = 60 °) and the viewpoint angle θy (θy = 0 °) in the upper and lower center and the right end of the visible range of (virtual image V); The combination of the viewpoint angle θx (θx = −60 °) and the viewpoint angle θy (θy = −60 °) when the center of the viewpoint position is the lower end and the left end of the visible range of the display image F (virtual image V). Corresponding seventh distortion correction parameter P7 and the viewpoint angle θx (θx = 0 °) and the viewpoint angle θy (θy = −60 °) when the center of the viewpoint position is the lower end and the center of the left and right of the visible range of the display image F (virtual image V). An eighth distortion correction parameter RP8 corresponding to the combination, a viewpoint angle θx (θx = 60 °) and a viewpoint angle θy when the center of the viewpoint position is the lower end and the right end of the visible range of the display image F (virtual image V). The ninth distortion correction parameter RP9 corresponding to the combination with (θy = −60 °) is stored in the ROM 22. Note that the viewpoint angle θx when the center of the viewpoint position is the left and right ends of the visible range of the display image F and the viewpoint angle θy when the center of the viewpoint position is the upper and lower ends of the visible range of the display image F are: It is not limited to this embodiment, and is arbitrarily determined. As shown in FIG. 12, each of the first to ninth distortion correction parameters RP1 to RP9 has an x-axis (horizontal axis) on the display surface of the display means 30 of a plurality of vertices of a triangular patch used in texture mapping described later. ) Direction position and y-axis (vertical axis) direction position (number of dots from the origin). FIG. 12 shows an example in which the values in the x-axis direction and the value in the y-axis direction of the 25 vertices of No. 1 to No. 25 are set in the first to ninth distortion correction parameters RP1 to RP9. The number of vertices is arbitrary. In the first to ninth distortion correction parameters RP1 to RP9, the positions of the apexes of the triangular patches in the x-axis direction and the y-axis direction correspond to the viewpoint angle θx corresponding to the display image F projected on the windshield 101, respectively. The distortion is set so as to generate a distortion in a direction opposite to that generated when viewed from θy.

第一〜第九の歪み補正パラメータRP1〜RP9は、ルックアップテーブルとしてROM22に保存され、CPU21は算出された視点角度θx,θyに基づいて以下のようにROM22から第一〜第九の歪み補正パラメータRP1〜RP9を読み出す。まず、視点角度θxが−60°、0°、60°の何れかであり、かつ、視点角度θyが−60°、0°、60°の何れかである場合には、CPU21は、視点角度θx,θyの組み合わせに対応する第一〜第九の歪み補正パラメータRP1〜RP9の何れかをROM22から読み出す。
また、視点角度θxが第一〜第九の歪み補正パラメータRP1〜RP9と対応しない値であり(例えば視点角度θx=−30°)かつ、視点角度θyが−60°、0°、60°の何れかである場合には、CPU21は、第一〜第九の歪み補正パラメータRP1〜RP9のうち算出された視点角度θxの前後の視点角度θxと算出された視点角度θyとの組み合わせに対応する2つの歪み補正パラメータを取得して両者の間の補間処理を行い、算出された視点角度θx,θyの組み合わせに対応する補間歪み補正パラメータRP’を取得する。すなわち、視点位置の中心が表示画像Fの視認可能範囲の左右中央と左端との間に位置する場合(視点角度θxがマイナス(θx=−a°)の場合)には、CPU21は第一,第二の歪み補正パラメータRP1,RP2の間(視点角度θy=60°である場合)、第四,第五の歪み補正パラメータRP4,RP5の間(視点角度θy=0°である場合)、あるいは第七,第八の歪み補正パラメータRP7,RP8の間(視点角度θy=−60°である場合)の何れかを補間処理して補間歪み補正パラメータRP’を算出する。また、視点位置の中心が表示画像Fの視認可能範囲の左右中央と右端との間に位置する場合(視点角度θxがプラス(θx=a°)の場合)には、CPU21は第二,第三の歪み補正パラメータRP2,RP3の間(視点角度θy=60°である場合)、第五,第六の歪み補正パラメータRP5,RP6の間(視点角度θy=0°である場合)、あるいは第八,第九の歪み補正パラメータRP8,RP9の間(視点角度θy=−60°である場合)の何れかを補間処理して補間歪み補正パラメータRP’を算出する。
The first to ninth distortion correction parameters RP1 to RP9 are stored in the ROM 22 as a look-up table, and the CPU 21 reads the first to ninth distortion corrections from the ROM 22 based on the calculated viewpoint angles θx and θy as follows. Read parameters RP1 to RP9. First, when the viewpoint angle θx is any one of −60 °, 0 °, and 60 ° and the viewpoint angle θy is any one of −60 °, 0 °, and 60 °, the CPU 21 Any one of the first to ninth distortion correction parameters RP1 to RP9 corresponding to the combination of θx and θy is read from the ROM 22.
The viewpoint angle θx is a value that does not correspond to the first to ninth distortion correction parameters RP1 to RP9 (for example, the viewpoint angle θx = −30 °), and the viewpoint angle θy is −60 °, 0 °, and 60 °. In any case, the CPU 21 corresponds to a combination of the viewpoint angle θx before and after the calculated viewpoint angle θx and the calculated viewpoint angle θy among the first to ninth distortion correction parameters RP1 to RP9. Two distortion correction parameters are acquired and interpolation processing is performed between them, and an interpolation distortion correction parameter RP ′ corresponding to the calculated combination of viewpoint angles θx and θy is acquired. That is, when the center of the viewpoint position is located between the left and right center and the left end of the visible range of the display image F (when the viewpoint angle θx is negative (θx = −a °)), the CPU 21 Between the second distortion correction parameters RP1 and RP2 (when the viewpoint angle θy = 60 °), between the fourth and fifth distortion correction parameters RP4 and RP5 (when the viewpoint angle θy = 0 °), or One of the seventh and eighth distortion correction parameters RP7 and RP8 (when the viewpoint angle θy = −60 °) is interpolated to calculate an interpolation distortion correction parameter RP ′. When the center of the viewpoint position is located between the right and left center and the right end of the visible range of the display image F (when the viewpoint angle θx is plus (θx = a °)), the CPU 21 Between the third distortion correction parameters RP2 and RP3 (when the viewing angle θy = 60 °), between the fifth and sixth distortion correction parameters RP5 and RP6 (when the viewing angle θy = 0 °), or The interpolation distortion correction parameter RP ′ is calculated by performing interpolation processing between any of the eighth and ninth distortion correction parameters RP8 and RP9 (when the viewpoint angle θy = −60 °).

また、視点角度θxが−60°、0°、60°の何れかであり、かつ、視点角度θyが第一〜第九の歪み補正パラメータRP1〜RP9と対応しない値である(例えば視点角度θy=30°)場合には、CPU21は、第一〜第九の歪み補正パラメータRP1〜RP9のうち算出された視点角度θxと算出された視点角度θyの前後の視点角度θyとの組み合わせに対応する2つの歪み補正パラメータを取得して両者の間の補間処理を行い、算出された視点角度θx,θyの組み合わせに対応する補間歪み補正パラメータRP’を取得する。すなわち、視点位置の中心が表示画像Fの視認可能範囲の上端と上下中央との間に位置する場合(視点角度θyがプラス(θb=b°)の場合)には、CPU21は第一,第四の歪み補正パラメータRP1,RP4の間(視点角度θx=−60°である場合)、第二,第五の歪み補正パラメータRP2,RP5の間(視点角度θx=0°である場合)、あるいは第三,第六の歪み補正パラメータRP3,RP6の間(視点角度θx=60°である場合)の何れかを補間処理して補間歪み補正パラメータRP’を算出する。また、視点位置の中心が表示画像Fの視認可能範囲の上下中央と下端との間に位置する場合(視点角度θyがマイナス(θy=−b°)の場合)には、CPU21は第四,第七の歪み補正パラメータRP4,RP7の間(視点角度θx=−60°である場合)、第五,第八の歪み補正パラメータRP5,RP8の間(視点角度θx=0°である場合)、あるいは第六,第九の歪み補正パラメータRP6,RP9の間(視点角度θx=60°である場合)の何れかを補間処理して補間歪み補正パラメータRP’を算出する。   Further, the viewpoint angle θx is any of −60 °, 0 °, and 60 °, and the viewpoint angle θy is a value that does not correspond to the first to ninth distortion correction parameters RP1 to RP9 (for example, the viewpoint angle θy). = 30 °), the CPU 21 corresponds to a combination of the calculated viewpoint angle θx of the first to ninth distortion correction parameters RP1 to RP9 and the viewpoint angle θy before and after the calculated viewpoint angle θy. Two distortion correction parameters are acquired and interpolation processing is performed between them, and an interpolation distortion correction parameter RP ′ corresponding to the calculated combination of viewpoint angles θx and θy is acquired. That is, when the center of the viewpoint position is located between the upper end of the viewable range of the display image F and the upper and lower centers (when the viewpoint angle θy is positive (θb = b °)), the CPU 21 Between the fourth distortion correction parameters RP1 and RP4 (when the viewpoint angle θx = −60 °), between the second and fifth distortion correction parameters RP2 and RP5 (when the viewpoint angle θx = 0 °), or One of the third and sixth distortion correction parameters RP3 and RP6 (when the viewpoint angle θx = 60 °) is interpolated to calculate an interpolation distortion correction parameter RP ′. When the center of the viewpoint position is located between the upper and lower centers and the lower end of the viewable range of the display image F (when the viewpoint angle θy is negative (θy = −b °)), the CPU 21 Between the seventh distortion correction parameters RP4 and RP7 (when the viewpoint angle θx = −60 °), between the fifth and eighth distortion correction parameters RP5 and RP8 (when the viewpoint angle θx = 0 °), Alternatively, the interpolation distortion correction parameter RP ′ is calculated by performing interpolation processing between any of the sixth and ninth distortion correction parameters RP6 and RP9 (when the viewpoint angle θx = 60 °).

また、視点角度θx,θyのいずれもが第一〜第九の歪み補正パラメータRP1〜RP9と対応しない値である場合(例えば視点角度θx=−30°、θy=30°である場合や視点角度θx=30°、θy=−30°である場合)には、CPU21は、第一〜第九の歪み補正パラメータRP1〜RP9のうちその前後の視点角度θx,θyの組み合わせに対応する4つの歪み補正パラメータを取得してこれらの間の補間処理を行い、算出された視点角度θx,θyに対応する補間歪み補正パラメータRP’を取得する。すなわち、視点位置の中心が表示画像Fの視認可能範囲の上端かつ左端と上端かつ左右中央と上下中央かつ左端と上下中央かつ左右中央との間に位置する場合(視点角度θxがマイナス(θx=−a°)かつ視点角度θyがプラス(θy=b°)の場合)には、CPU21は第一,第二,第四,第五の歪み補正パラメータRP1,RP2,RP4,RP5の間を補間処理して補間歪み補正パラメータRP’を算出する。また、視点位置の中心が表示画像Fの視認可能範囲の上端かつ左右中央と上端かつ右端と上下中央かつ左右中央と上下中央かつ右端との間に位置する場合(視点角度θxがプラス(θx=a°)、視点角度θyがプラス(θy=b°)の場合)には、CPU21は第二,第三,第五,第六の歪み補正パラメータRP2,RP3,RP5,RP6の間を補間処理して補間歪み補正パラメータRP’を算出する。また、視点位置の中心が表示画像Fの視認可能範囲の上下中央かつ左端と上下中央かつ左右中央と下端かつ左端と下端かつ左右中央との間に位置する場合(視点角度θxがマイナス(θx=−a°)かつ視点角度θyがマイナス(θy=−b°)の場合)には、CPU21は第四,第五,第七,第八の歪み補正パラメータRP4,RP5,RP7,RP8の間を補間処理して補間歪み補正パラメータRP’を算出する。また、視点位置の中心が表示画像Fの視認可能範囲の上下中央かつ左右中央と上下中央かつ右端と下端かつ左右中央と下端かつ右端との間に位置する場合(視点角度θxがプラス(θx=a°)、視点角度θyがマイナス(θy=−b°)の場合)には、CPU21は第五,第六,第八,第九の歪み補正パラメータRP5,RP6,RP8,RP9の間を補間処理して補間歪み補正パラメータRP’を算出する。   When the viewpoint angles θx and θy are values that do not correspond to the first to ninth distortion correction parameters RP1 to RP9 (for example, when the viewpoint angles θx = −30 ° and θy = 30 °, In the case of θx = 30 ° and θy = −30 °), the CPU 21 has four distortions corresponding to combinations of the viewpoint angles θx and θy before and after the first to ninth distortion correction parameters RP1 to RP9. A correction parameter is acquired and an interpolation process is performed between them, and an interpolation distortion correction parameter RP ′ corresponding to the calculated viewpoint angles θx and θy is acquired. That is, the center of the viewpoint position is located between the upper end, the left end, the upper end, the left and right center, the top and bottom center, and the left end, the top and bottom center, and the left and right center of the display image F (view angle θx is negative (θx = −a °) and the viewpoint angle θy is positive (θy = b °), the CPU 21 interpolates between the first, second, fourth and fifth distortion correction parameters RP1, RP2, RP4 and RP5. The interpolation distortion correction parameter RP ′ is calculated by processing. Further, when the center of the viewpoint position is located between the upper end, the left and right center and the upper end, the right end and the upper and lower center, and the left and right center and the upper and lower center and the right end of the viewable range of the display image F (view angle θx is positive (θx = a °) and when the viewpoint angle θy is positive (θy = b °), the CPU 21 interpolates between the second, third, fifth and sixth distortion correction parameters RP2, RP3, RP5 and RP6. Then, the interpolation distortion correction parameter RP ′ is calculated. Further, when the center of the viewpoint position is located between the upper and lower center, the left end and the upper and lower center, the left and right center and the lower end, and the left end and the lower end and the left and right center of the visible range of the display image F (the viewpoint angle θx is negative (θx = −a °) and the viewpoint angle θy is negative (θy = −b °)), the CPU 21 is between the fourth, fifth, seventh, and eighth distortion correction parameters RP4, RP5, RP7, and RP8. Interpolation processing is performed to calculate an interpolation distortion correction parameter RP ′. Further, when the center of the viewpoint position is located between the vertical center, the horizontal center, the vertical center, the right edge and the bottom edge, and the horizontal center, the bottom edge, and the right edge of the viewable range of the display image F (the viewpoint angle θx is positive (θx = a °) and when the viewpoint angle θy is negative (θy = −b °), the CPU 21 interpolates between the fifth, sixth, eighth, and ninth distortion correction parameters RP5, RP6, RP8, and RP9. The interpolation distortion correction parameter RP ′ is calculated by processing.

補間処理の一例として、歪み補正パラメータRPnと歪み補正パラメータRP(n+1)と歪み補正パラメータRP(n+3)と歪み補正パラメータRP(n+4)との4つの歪み補正パラメータの間を補間処理して補間歪み補正パラメータRP’を取得する場合を例に挙げて説明する。
補間歪み補正パラメータRP’は算出された視点位置と各歪み補正パラメータRPn,RP(n+1),RP(n+3),RP(n+4)に対応する視点位置との距離Ln,L(n+1),L(n+3),L(n+4)から各歪み補正パラメータRPn,RP(n+1),RP(n+3),RP(n+4)の重みWn,W(n+1),W(n+3),W(n+4)を算出し、算出された視点位置に近いほど重みを大きくして求めることができる。
具体的には、まず、CPU21は、各歪み補正パラメータRPn,RP(n+1),RP(n+3),RP(n+4)に対応する視点位置と算出された視点位置との距離をLn,L(n+1),L(n+3),L(n+4)を下記式2を用いて求める。

Figure 2014199385
なお、θnxとθnyはそれぞれ歪み補正パラメータRPnに対応する視点角度θxの値及び視点角度θyの値を示す。同様にθ(n+1)xとθ(n+1)yはそれぞれ歪み補正パラメータRP(n+1)に対応する視点角度θxの値及び視点角度θyの値を示す。同様にθ(n+3)xとθ(n+3)yはそれぞれ歪み補正パラメータRP(n+3)に対応する視点角度θxの値及び視点角度θyの値を示す。同様にθ(n+4)xとθ(n+4)yはそれぞれ歪み補正パラメータRP(n+4)に対応する視点角度θxの値及び視点角度θyの値を示す。また、sumLはそれぞれの距離Ln,L(n+1),L(n+3),L(n+4)の合計を示す。
次に、CPU21は、各歪み補正パラメータRPn,RP(n+1),RP(n+3),RP(n+4)に対する重みWn,W(n+1),W(n+3),W(n+4)を下記式3を用いて算出する。なお、算出された視点位置が近い程、重みの値が大きくなるようにする。
(式3)
Wn=(L(n+1)+L(n+3)+L(n+4))/sumL
W(n+1)=(Ln+L(n+3)+L(n+4))/sumL
W(n+3)=(Ln+L(n+1)+L(n+4))/sumL
W(n+4)=(Ln+L(n+1)+L(n+3))/sumL
次に、CPU21は、各重みWn,W(n+1),W(n+3),W(n+4)を各歪み補正パラメータRPn,RP(n+1),RP(n+3),RP(n+4)に掛けて足し合わせることで(下記式4参照)、補間歪み補正パラメータRP’を算出する。
(式4)
RP’=RPn×Wn+RP(n+1)×W(n+1)+RP(n+3)×W(n+3)+RP(n+4)×W(n+4)
このとき、補間歪み補正パラメータRP’のm番の頂点のx軸方向の値xmとy軸方向の値ymとは以下の式5で求められる。
(式5)
xm=xnm×Wn+x(n+1)m×W(n+1)+x(n+3)m×W(n+3)+x(n+4)m×W(n+4)
ym=ynm×Wn+y(n+1)m×W(n+1)+y(n+3)m×W(n+3)+y(n+4)m×W(n+4)
なお、xnmとynmは、それぞれ歪み補正パラメータRPnにおけるm番の頂点のx軸方向の値とy軸方向の値を示す。同様にx(n+1)mとy(n+1)mは、それぞれ歪み補正パラメータRP(n+1)におけるm番の頂点のx軸方向の値とy軸方向の値を示す。同様にx(n+3)mとy(n+3)mは、それぞれ歪み補正パラメータRP(n+3)におけるm番の頂点のx軸方向の値とy軸方向の値を示す。同様にx(n+4)mとy(n+4)mは、それぞれ歪み補正パラメータRP(n+4)におけるm番の頂点のx軸方向の値とy軸方向の値を示す。
また、補間関数として用いる多項式には、代表的なものとして線形補間のほかに、3次補間やラグランジュ補間、スプライン補間などがあるが、いずれを使用して補間処理を行っても良い。また、歪みが大きい個所に位置する頂点について補間処理に使用する補間関数に高次の多項式を用い、歪みが小さい個所に位置する頂点について補間処理に使用する補間関数に低次の多項式を用いるなど、多項式を対応点毎に変更してもよい。高次の多項式は計算量が増えるものの、歪みの補正精度は向上する。一方、低次の多項式は歪みの補正精度は低いが、計算量が少ない。両者を対応点によって使い分けることで、歪みの補正精度と計算速度の向上を両立させることができる。 As an example of the interpolation processing, interpolation processing is performed by interpolating between four distortion correction parameters of the distortion correction parameter RPn, the distortion correction parameter RP (n + 1), the distortion correction parameter RP (n + 3), and the distortion correction parameter RP (n + 4). A case where the correction parameter RP ′ is acquired will be described as an example.
The interpolation distortion correction parameter RP ′ is a distance Ln, L (n + 1), L () between the calculated viewpoint position and the viewpoint position corresponding to each distortion correction parameter RPn, RP (n + 1), RP (n + 3), RP (n + 4). weights Wn, W (n + 1), W (n + 3), W (n + 4) of the distortion correction parameters RPn, RP (n + 1), RP (n + 3), RP (n + 4) are calculated from n + 3) and L (n + 4), The closer to the calculated viewpoint position, the larger the weight can be obtained.
Specifically, first, the CPU 21 calculates the distance between the viewpoint position corresponding to each distortion correction parameter RPn, RP (n + 1), RP (n + 3), RP (n + 4) and the calculated viewpoint position to Ln, L (n + 1). ), L (n + 3), and L (n + 4) are obtained using the following equation 2.
Figure 2014199385
Note that θnx and θny indicate the value of the viewpoint angle θx and the value of the viewpoint angle θy corresponding to the distortion correction parameter RPn, respectively. Similarly, θ (n + 1) x and θ (n + 1) y indicate the value of the viewpoint angle θx and the value of the viewpoint angle θy corresponding to the distortion correction parameter RP (n + 1), respectively. Similarly, θ (n + 3) x and θ (n + 3) y indicate the value of the viewpoint angle θx and the value of the viewpoint angle θy corresponding to the distortion correction parameter RP (n + 3), respectively. Similarly, θ (n + 4) x and θ (n + 4) y indicate the values of the viewpoint angle θx and the viewpoint angle θy corresponding to the distortion correction parameter RP (n + 4), respectively. Also, sumL represents the sum of the distances Ln, L (n + 1), L (n + 3), and L (n + 4).
Next, the CPU 21 uses weights Wn, W (n + 1), W (n + 3), and W (n + 4) for the distortion correction parameters RPn, RP (n + 1), RP (n + 3), and RP (n + 4) using the following formula 3. To calculate. Note that the closer the calculated viewpoint position is, the larger the weight value is.
(Formula 3)
Wn = (L (n + 1) + L (n + 3) + L (n + 4)) / sumL
W (n + 1) = (Ln + L (n + 3) + L (n + 4)) / sumL
W (n + 3) = (Ln + L (n + 1) + L (n + 4)) / sumL
W (n + 4) = (Ln + L (n + 1) + L (n + 3)) / sumL
Next, the CPU 21 multiplies the respective weights Wn, W (n + 1), W (n + 3), and W (n + 4) by the respective distortion correction parameters RPn, RP (n + 1), RP (n + 3), and RP (n + 4) and adds them. Thus, the interpolation distortion correction parameter RP ′ is calculated (see Equation 4 below).
(Formula 4)
RP ′ = RPn × Wn + RP (n + 1) × W (n + 1) + RP (n + 3) × W (n + 3) + RP (n + 4) × W (n + 4)
At this time, the value xm in the x-axis direction and the value ym in the y-axis direction of the m-th apex of the interpolation distortion correction parameter RP ′ are obtained by the following Expression 5.
(Formula 5)
xm = xnm * Wn + x (n + 1) m * W (n + 1) + x (n + 3) m * W (n + 3) + x (n + 4) m * W (n + 4)
ym = ynm * Wn + y (n + 1) m * W (n + 1) + y (n + 3) m * W (n + 3) + y (n + 4) m * W (n + 4)
Note that xnm and ynm respectively indicate the value in the x-axis direction and the value in the y-axis direction of the m-th apex in the distortion correction parameter RPn. Similarly, x (n + 1) m and y (n + 1) m indicate the value in the x-axis direction and the value in the y-axis direction of the m-th apex in the distortion correction parameter RP (n + 1), respectively. Similarly, x (n + 3) m and y (n + 3) m indicate the value in the x-axis direction and the value in the y-axis direction of the m-th apex in the distortion correction parameter RP (n + 3), respectively. Similarly, x (n + 4) m and y (n + 4) m indicate the value in the x-axis direction and the value in the y-axis direction of the m-th apex in the distortion correction parameter RP (n + 4), respectively.
In addition to linear interpolation, there are three types of polynomials used as an interpolation function, such as cubic interpolation, Lagrangian interpolation, and spline interpolation. Any of them may be used for interpolation processing. In addition, a high-order polynomial is used for the interpolation function used for interpolation processing for vertices located at locations with high distortion, and a low-order polynomial is used for the interpolation function used for interpolation processing for vertices located at locations with low distortion. The polynomial may be changed for each corresponding point. Although higher-order polynomials require more computation, distortion correction accuracy is improved. On the other hand, low-order polynomials have a low distortion correction accuracy but a small amount of calculation. By properly using the two according to the corresponding points, both the distortion correction accuracy and the calculation speed can be improved.

上記の例は、4つの歪み補正パラメータの間を補間処理して補間歪み補正パラメータRP’を算出するものであったが、2つの歪み補正パラメータ(例えば歪み補正パラメータRPn,RP(n+1))の間を補間処理して補間歪み補正パラメータRP’を算出する場合も同様にして、算出された視点位置と各歪み補正パラメータRPn,RP(n+1)に対応する視点位置との距離Ln,L(n+1)から各歪み補正パラメータRPn,RP(n+1)の重みWn,W(n+1)を算出し、算出された視点位置に近いほど重みを大きくして求めることができる。   In the above example, the interpolation distortion correction parameter RP ′ is calculated by interpolating between the four distortion correction parameters, but two distortion correction parameters (for example, distortion correction parameters RPn, RP (n + 1)) are calculated. Similarly, when the interpolation distortion correction parameter RP ′ is calculated by performing interpolation processing between the distances Ln, L (n + 1) between the calculated viewpoint position and the viewpoint position corresponding to each distortion correction parameter RPn, RP (n + 1). ), The weights Wn and W (n + 1) of the distortion correction parameters RPn and RP (n + 1) are calculated, and the weights can be obtained by increasing the closer to the calculated viewpoint position.

次に、CPU21は、ステップS23において、ステップS22で取得した第一〜第九の歪み補正パラメータRP1〜RP9あるいは補間歪み補正パラメータRP’に基づいて、表示画像Fの歪みを補正する。具体的には、まず、CPU21は、図8に示すように、歪み補正パラメータRP1〜RP9あるいは補間歪み補正パラメータRP’として取得した各頂点のx軸方向の値とy軸方向の値とに基づいて三角パッチを作成する。次に、CPU21は、図9(a)に示すように、表示画像Fを三角パッチの個数(本実施形態では32個)と同数の略三角形状のテクスチャF1〜F32に分割し、さらに図9(b)に示すように、これらテクスチャF1〜F32を対応する三角パッチにテクスチャマッピングによって貼り付ける。なお、テクスチャマッピングはCPU21の画像処理を行う回路に実装されている機能を用いても良いし、ソフトウェアとして実装されている機能であってもよい。テクスチャマッピングによって得られた補正後の表示画像Fは、ウィンドシールド101に投影された表示画像Fを算出された視点角度θx,θyから見た際に生じる歪みと逆方向の歪みが与えられ、補正後の表示画像Fを表示手段30に表示すると、ウィンドシールド101で投影された際には歪みのない表示画像Fが得られる。   Next, in step S23, the CPU 21 corrects the distortion of the display image F based on the first to ninth distortion correction parameters RP1 to RP9 or the interpolation distortion correction parameter RP 'acquired in step S22. Specifically, first, as shown in FIG. 8, the CPU 21 is based on the x-axis direction value and the y-axis direction value of each vertex acquired as the distortion correction parameters RP1 to RP9 or the interpolation distortion correction parameter RP ′. To create a triangular patch. Next, as shown in FIG. 9A, the CPU 21 divides the display image F into substantially triangular textures F <b> 1 to F <b> 32 as many as the number of triangular patches (32 in the present embodiment). As shown in (b), these textures F1 to F32 are pasted on the corresponding triangular patches by texture mapping. The texture mapping may use a function implemented in a circuit that performs image processing of the CPU 21 or may be a function implemented as software. The corrected display image F obtained by the texture mapping is given a distortion in a direction opposite to that generated when the display image F projected on the windshield 101 is viewed from the calculated viewpoint angles θx and θy. When the subsequent display image F is displayed on the display means 30, a display image F without distortion is obtained when projected by the windshield 101.

CPU21は、ステップS21〜S23を実行することで表示画像Fの補正を実行する。   CPU21 performs the correction | amendment of the display image F by performing step S21-S23.

本実施形態におけるHUD装置100は、表示画像Fを表示する表示手段30と、表示画像Fを表示手段30に表示させる制御部20と、運転者102の視点位置を検出可能な位置検出手段(撮像部10及び制御部20)と、を備え、表示画像Fをウィンドシールド101に投影する表示装置であって、
前記視点位置が表示画像Fの視認可能範囲の上端かつ左端である場合の第一の歪み補正パラメータRP1と、前記視点位置が表示画像Fの視認可能範囲の上端かつ左右中央である場合の第二の歪み補正パラメータRP2と、前記視点位置が表示画像Fの視認可能範囲の上端かつ右端である場合の第三の歪み補正パラメータRP3と、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ左端である場合の第四の歪み補正パラメータRP4と、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ左右中央である場合の第五の歪み補正パラメータRP5と、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ右端である場合の第六の歪み補正パラメータRP6と、前記視点位置が表示画像Fの視認可能範囲の下端かつ左端である場合の第七の歪み補正パラメータRP7と、前記視点位置が表示画像Fの視認可能範囲の下端かつ左右中央である場合の第八の歪み補正パラメータRP8と、前記視点位置が表示画像Fの視認可能範囲の下端かつ右端である場合の第九の歪み補正パラメータRP9と、を記憶するROM22を備え、
制御部20は、前記視点位置に基づいて第一から第九の歪み補正パラメータRP1からRP9のいずれかを取得して、または、第一から第九の歪み補正パラメータRP1からRP9のうち複数の間を補間処理して補間歪み補正パラメータRP’を算出して、第一から第九の歪み補正パラメータRP1からRP9あるいは補間歪み補正パラメータRP’のいずれかに基づいてウィンドシールド101に投影されたときの表示画像Fの歪みを補正することを特徴とする。
The HUD device 100 according to the present embodiment includes a display unit 30 that displays a display image F, a control unit 20 that displays the display image F on the display unit 30, and a position detection unit that can detect the viewpoint position of the driver 102 (imaging). Unit 10 and control unit 20), and projecting the display image F onto the windshield 101,
A first distortion correction parameter RP1 when the viewpoint position is at the upper end and the left end of the viewable range of the display image F, and a second when the viewpoint position is at the upper end and the left and right center of the viewable range of the display image F. Distortion correction parameter RP2, a third distortion correction parameter RP3 when the viewpoint position is at the upper end and the right end of the viewable range of the display image F, and the upper and lower center of the viewable range of the display image F. A fourth distortion correction parameter RP4 in the case of the left end, a fifth distortion correction parameter RP5 in the case where the viewpoint position is the vertical center and the horizontal center of the viewable range of the display image F, and the viewpoint position is the display image. The sixth distortion correction parameter RP6 in the case where F is in the upper and lower center and the right end of the visible range, and the viewpoint position is the lower end and the left end of the visible range of the display image F. The seventh distortion correction parameter RP7, the eighth distortion correction parameter RP8 when the viewpoint position is at the lower end and the center of the left and right of the display image F, and the viewpoint position allows the display image F to be viewed. A ROM 22 for storing a ninth distortion correction parameter RP9 for the lower end and the right end of the range;
The control unit 20 acquires any one of the first to ninth distortion correction parameters RP1 to RP9 based on the viewpoint position or a plurality of the first to ninth distortion correction parameters RP1 to RP9. Is interpolated to calculate an interpolation distortion correction parameter RP ′, and is projected onto the windshield 101 based on one of the first to ninth distortion correction parameters RP1 to RP9 or the interpolation distortion correction parameter RP ′. The distortion of the display image F is corrected.

また、HUD装置100の表示方法は、前記視点位置に基づいて第一から第九の歪み補正パラメータRP1からRP9のいずれかを取得して、または、第一から第九の歪み補正パラメータRP1からRP9のうち複数の間を補間処理して補間歪み補正パラメータRP’を算出して、第一から第九の歪み補正パラメータRP1からRP9あるいは補間歪み補正パラメータRP’のいずれかに基づいてウィンドシールド101に投影されたときの表示画像Fの歪みを補正することを特徴とする。   Also, the display method of the HUD device 100 acquires any one of the first to ninth distortion correction parameters RP1 to RP9 based on the viewpoint position, or the first to ninth distortion correction parameters RP1 to RP9. Are interpolated to calculate an interpolation distortion correction parameter RP ′, and the windshield 101 is calculated based on one of the first to ninth distortion correction parameters RP1 to RP9 or the interpolation distortion correction parameter RP ′. The distortion of the display image F when projected is corrected.

これによれば、運転者102の視点位置が上下左右に移動した場合であっても表示像の歪みを補正して視認性を向上させることができ、また、ROM22に記憶させる歪み補正パラメータを9つに抑制でき部品コストの増大を抑制することが可能となる。   According to this, even when the viewpoint position of the driver 102 moves up, down, left, and right, the distortion of the display image can be corrected to improve the visibility, and the distortion correction parameter stored in the ROM 22 can be set to 9. Therefore, it is possible to suppress the increase in component cost.

また、本実施形態におけるHUD装置100は、制御部20が、前記視点位置が表示画像Fの視認可能範囲の上端かつ左端と上端かつ左右中央と上下中央かつ左端と上下中央かつ左右中央との間に位置する場合には、第一,第二,第四,第五の歪み補正パラメータRP1,RP2,RP4,RP5の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ左端と上下中央かつ左右中央と下端かつ左端と下端かつ左右中央との間に位置する場合には、第四,第五,第七,第八の歪み補正パラメータRP4,RP5,RP7,RP8の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の上端かつ左右中央と上端かつ右端と上下中央かつ左右中央と上下中央かつ右端との間に位置する場合には、第二,第三,第五,第六の歪み補正パラメータRP2,RP3,RP5,RP6の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ左右中央と上下中央かつ右端と下端かつ左右中央と下端かつ右端との間に位置する場合には、第五,第六,第八,第九の歪み補正パラメータRP5,RP6,RP8,RP9の間を補間処理して補間歪み補正パラメータRP’を算出することを特徴とする。   Further, in the HUD device 100 according to the present embodiment, the control unit 20 has the viewpoint position between the upper end, the left end, the upper end, the left / right center, the upper / lower center, the left end, the upper / lower center, and the left / right center of the display image F visible range. Is interpolated between the first, second, fourth, and fifth distortion correction parameters RP1, RP2, RP4, and RP5 to calculate an interpolation distortion correction parameter RP ′, and the viewpoint position is The fourth, fifth, seventh, and eighth distortions when the display image F is located between the upper and lower center, the left and upper ends, the upper and lower centers, the left and right centers and the lower ends, and the left end and the lower ends and the left and right centers of the display image F. Interpolation processing is performed between the correction parameters RP4, RP5, RP7, and RP8 to calculate an interpolation distortion correction parameter RP ′, and the viewpoint position is the upper end, the left and right center, the upper end, the right end, and the upper and lower center of the display image F. If it is located between the left and right center, the top and bottom center, and the right end, interpolation processing is performed by interpolating between the second, third, fifth, and sixth distortion correction parameters RP2, RP3, RP5, and RP6. When the parameter RP ′ is calculated and the viewpoint position is located between the upper and lower center, the left and right center, the upper and lower center, the right end and the lower end, the left and right center, the lower end, and the right end of the visible range of the display image F, the fifth , Sixth, eighth, and ninth distortion correction parameters RP5, RP6, RP8, and RP9 are interpolated to calculate an interpolation distortion correction parameter RP ′.

また、HUD装置100の表示方法は、前記視点位置が表示画像Fの視認可能範囲の上端かつ左端と上端かつ左右中央と上下中央かつ左端と上下中央かつ左右中央との間に位置する場合には、第一,第二,第四,第五の歪み補正パラメータRP1,RP2,RP4,RP5の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ左端と上下中央かつ左右中央と下端かつ左端と下端かつ左右中央との間に位置する場合には、第四,第五,第七,第八の歪み補正パラメータRP4,RP5,RP7,RP8の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の上端かつ左右中央と上端かつ右端と上下中央かつ左右中央と上下中央かつ右端との間に位置する場合には、第二,第三,第五,第六の歪み補正パラメータRP2,RP3,RP5,RP6の間を補間処理して補間歪み補正パラメータRP’を算出し、前記視点位置が表示画像Fの視認可能範囲の上下中央かつ左右中央と上下中央かつ右端と下端かつ左右中央と下端かつ右端との間に位置する場合には、第五,第六,第八,第九の歪み補正パラメータRP5,RP6,RP8,RP9の間を補間処理して補間歪み補正パラメータRP’を算出することを特徴とする。   The display method of the HUD device 100 is such that the viewpoint position is located between the upper end, left end, upper end, left / right center, upper / lower center, left end, upper / lower center, and left / right center of the viewable range of the display image F. , First, second, fourth, and fifth distortion correction parameters RP1, RP2, RP4, and RP5 are interpolated to calculate an interpolation distortion correction parameter RP ′, and the viewpoint position is visible in the display image F. The fourth, fifth, seventh, and eighth distortion correction parameters RP4, RP5, RP5, RP5, RP5, RP5, RP5, RP5, RP5, RP5, RP5, RP5, RP5 Interpolation processing between RP7 and RP8 is performed to calculate an interpolation distortion correction parameter RP ', and the viewpoint position is at the upper end, the left and right center and the upper end, the right end and the upper and lower center, and the left and right center and the upper and lower center of the display image F. If it is located between the right end and the second, third, fifth and sixth distortion correction parameters RP2, RP3, RP5 and RP6, interpolation processing is performed to calculate an interpolation distortion correction parameter RP '. When the viewpoint position is located between the vertical center, the horizontal center, the vertical center, the right edge and the bottom edge, and the horizontal center, the bottom edge, and the right edge of the viewable range of the display image F, the fifth, sixth, eighth , Ninth interpolation correction parameters RP5, RP6, RP8, RP9 are interpolated to calculate an interpolation distortion correction parameter RP ′.

これによれば、運転者102の視点位置が表示画像Fの視認可能範囲の中央と上下端及び左右端の間に移動した場合であっても、精度の高い歪み補正をすることが可能となる。   According to this, even when the viewpoint position of the driver 102 moves between the center of the viewable range of the display image F and the upper and lower ends and the left and right ends, it is possible to perform highly accurate distortion correction. .

なお、本発明は前述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変更(構成要素の削除を含む)が可能であることはもちろんである。本実施形態は、表示装置として表示手段30からの表示画像Fをウィンドシールド101に投影して運転者102に表示画像Fの虚像Vを視認させるHUD装置100を例に挙げたが、本発明を表示手段からの表示画像を反射スクリーン(被投影部材)や透過スクリーン(被投影部材)に投影して観察者に表示画像の実像を視認させる表示装置に適用しても良い。また、本実施形態のHUD装置100は車両用であったが、本発明を車両用以外の表示装置に適用しても良い。   Note that the present invention is not limited to the above-described embodiment, and various modifications (including deletion of constituent elements) can be made without departing from the scope of the invention. In the present embodiment, the HUD device 100 is exemplified as a display device that projects the display image F from the display means 30 onto the windshield 101 and causes the driver 102 to visually recognize the virtual image V of the display image F. You may apply to the display apparatus which projects the display image from a display means on a reflective screen (projection member) or a transmission screen (projection member), and makes an observer visually recognize the real image of a display image. Moreover, although the HUD apparatus 100 of this embodiment was for vehicles, you may apply this invention to display apparatuses other than the object for vehicles.

本発明は、表示装置及びその表示方法に利用可能である。   The present invention can be used for a display device and a display method thereof.

100 ヘッドアップディスプレイ装置
101 ウィンドシールド(被投影部材)
102 運転者(観察者)
10 撮像部
20 制御部
30 表示手段
40 凹面鏡
100 Head-up display device 101 Wind shield (projection member)
102 Driver (observer)
DESCRIPTION OF SYMBOLS 10 Imaging part 20 Control part 30 Display means 40 Concave mirror

Claims (8)

表示画像を表示する表示手段と、
前記表示画像を前記表示手段に表示させる表示制御手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置であって、
前記視点位置が前記表示画像の視認可能範囲の左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の右端である場合の第三の歪み補正パラメータと、を記憶する記憶部を備え、
前記表示制御手段は、前記視点位置に基づいて前記第一から第三の歪み補正パラメータのいずれかを取得して、または、前記第一から第三の歪み補正パラメータのうち2つの間を補間処理して補間歪み補正パラメータを算出して、前記第一から第三の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする表示装置。
Display means for displaying a display image;
Display control means for displaying the display image on the display means;
A position detecting means capable of detecting an observer's viewpoint position, and projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is the left end of the visible range of the display image; a second distortion correction parameter when the viewpoint position is the center of the visible range of the display image; A third distortion correction parameter when the viewpoint position is the right end of the visible range of the display image;
The display control means acquires one of the first to third distortion correction parameters based on the viewpoint position, or performs an interpolation process between two of the first to third distortion correction parameters. And calculating an interpolation distortion correction parameter to correct the distortion of the display image when projected onto the projection member based on any of the first to third distortion correction parameters or the interpolation distortion correction parameter. A display device characterized by:
前記表示制御手段は、前記視点位置が前記表示画像の視認可能範囲の中央と左端との間に位置する場合には、前記第一,第二の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の中央と右端との間に位置する場合には、前記第二,第三の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出することを特徴とする請求項1に記載の表示装置。   The display control means performs interpolation processing between the first and second distortion correction parameters when the viewpoint position is located between the center and the left end of the visible range of the display image. When distortion correction parameters are calculated, and the viewpoint position is located between the center and the right end of the visible range of the display image, interpolation processing is performed between the second and third distortion correction parameters. The display device according to claim 1, wherein an interpolation distortion correction parameter is calculated. 表示画像を表示する表示手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置の表示方法であって、
前記視点位置が前記表示画像の視認可能範囲の左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の右端である場合の第三の歪み補正パラメータと、を記憶する記憶部を備え、
前記視点位置に基づいて、前記第一から第三の歪み補正パラメータのいずれかを取得して、または、前記第一から第三の歪み補正パラメータのうち2つの間を補間処理して補間歪み補正パラメータを算出して、前記第一から第三の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする表示装置の表示方法。
Display means for displaying a display image;
A position detection means capable of detecting a viewer's viewpoint position, and a display device display method for projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is the left end of the visible range of the display image; a second distortion correction parameter when the viewpoint position is the center of the visible range of the display image; A third distortion correction parameter when the viewpoint position is the right end of the visible range of the display image;
Either one of the first to third distortion correction parameters is acquired based on the viewpoint position, or interpolation processing is performed by interpolating between two of the first to third distortion correction parameters. Calculating a parameter, and correcting distortion of the display image when projected onto the projection member based on any of the first to third distortion correction parameters or the interpolation distortion correction parameter. Display method of the display device.
前記視点位置が前記表示画像の視認可能範囲の中央と左端との間に位置する場合には、前記第一,第二の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の中央と右端との間に位置する場合には、前記第二,第三の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出することを特徴とする請求項3に記載の表示装置の表示方法。   When the viewpoint position is located between the center and the left end of the visible range of the display image, the interpolation distortion correction parameter is calculated by performing an interpolation process between the first and second distortion correction parameters. When the viewpoint position is located between the center and the right end of the viewable range of the display image, the interpolation distortion correction parameter is calculated by performing interpolation processing between the second and third distortion correction parameters. The display method of the display device according to claim 3, wherein: 表示画像を表示する表示手段と、
前記表示画像を前記表示手段に表示させる表示制御手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置であって、
前記視点位置が前記表示画像の視認可能範囲の上端かつ左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ左右中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ右端である場合の第三の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左端である場合の第四の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左右中央である場合の第五の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ右端である場合の第六の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左端である場合の第七の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左右中央である場合の第八の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ右端である場合の第九の歪み補正パラメータと、を記憶する記憶部を備え、
前記表示制御手段は、前記視点位置に基づいて前記第一から第九の歪み補正パラメータのいずれかを取得して、または、前記第一から第九の歪み補正パラメータのうち複数の間を補間処理して補間歪み補正パラメータを算出して、前記第一から第九の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする表示装置。
Display means for displaying a display image;
Display control means for displaying the display image on the display means;
A position detecting means capable of detecting an observer's viewpoint position, and projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is at the upper end and the left end of the viewable range of the display image, and a second when the viewpoint position is at the upper end and the left and right center of the viewable range of the display image A distortion correction parameter, a third distortion correction parameter when the viewpoint position is the upper end and the right end of the viewable range of the display image, and the viewpoint position is the upper and lower center and the left end of the viewable range of the display image. The fourth distortion correction parameter in the case, the fifth distortion correction parameter in the case where the viewpoint position is the vertical center and the horizontal center of the display image viewable range, and the viewpoint position is the viewable range of the display image. And a seventh distortion correction parameter when the viewpoint position is the lower end and the left end of the viewable range of the display image. A meter, an eighth distortion correction parameter when the viewpoint position is the lower end and the center of the left and right of the display image, and the viewpoint position is the lower end and the right end of the display image A ninth storage unit for storing distortion correction parameters;
The display control means acquires any one of the first to ninth distortion correction parameters based on the viewpoint position, or interpolates between a plurality of the first to ninth distortion correction parameters. Then, the interpolation distortion correction parameter is calculated, and the distortion of the display image when projected onto the projection member is corrected based on any of the first to ninth distortion correction parameters or the interpolation distortion correction parameter. A display device characterized by:
前記表示制御手段は、前記視点位置が前記表示画像の視認可能範囲の上端かつ左端と上端かつ左右中央と上下中央かつ左端と上下中央かつ左右中央との間に位置する場合には、前記第一,第二,第四,第五の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左端と上下中央かつ左右中央と下端かつ左端と下端かつ左右中央との間に位置する場合には、前記第四,第五,第七,第八の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の上端かつ左右中央と上端かつ右端と上下中央かつ左右中央と上下中央かつ右端との間に位置する場合には、前記第二,第三,第五,第六の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左右中央と上下中央かつ右端と下端かつ左右中央と下端かつ右端との間に位置する場合には、前記第五,第六,第八,第九の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出することを特徴とする請求項5に記載の表示装置。   The display control means, when the viewpoint position is located between the upper end, the left end, the upper end, the left / right center, the upper / lower center, the left end, the upper / lower center, and the left / right center of the visible range of the display image, , Second, fourth, and fifth distortion correction parameters are interpolated to calculate the interpolation distortion correction parameters, and the viewpoint position is the upper and lower center, the left end, the upper and lower center, and the left and right sides of the visible range of the display image. When it is located between the center and the lower end and between the left end and the lower end and the center of the left and right, the interpolation distortion correction parameter is calculated by interpolating between the fourth, fifth, seventh and eighth distortion correction parameters. And when the viewpoint position is located between the upper end, the left and right center and the upper end, the right end and the upper and lower center, and the left and right center and the upper and lower center and the right end of the visible range of the display image, the second, third, Fifth and sixth distortions The interpolation distortion correction parameter is calculated by interpolating between positive parameters, and the viewpoint position is a vertical center, a horizontal center, a vertical center, a right edge and a bottom edge, a horizontal center, a bottom edge, and a right edge of the viewable range of the display image. 6. The interpolated distortion correction parameter is calculated by interpolating between the fifth, sixth, eighth, and ninth distortion correction parameters when located in between. Display device. 表示画像を表示する表示手段と、
前記表示画像を前記表示手段に表示させる表示制御手段と、
観察者の視点位置を検出可能な位置検出手段と、を備え、前記表示画像を被投影部材に投影する表示装置の表示方法であって、
前記視点位置が前記表示画像の視認可能範囲の上端かつ左端である場合の第一の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ左右中央である場合の第二の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上端かつ右端である場合の第三の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左端である場合の第四の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左右中央である場合の第五の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ右端である場合の第六の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左端である場合の第七の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ左右中央である場合の第八の歪み補正パラメータと、前記視点位置が前記表示画像の視認可能範囲の下端かつ右端である場合の第九の歪み補正パラメータと、を記憶する記憶部を備え、
前記表示制御手段は、前記視点位置に基づいて前記第一から第九の歪み補正パラメータのいずれかを取得して、または、前記第一から第九の歪み補正パラメータのうち複数の間を補間処理して補間歪み補正パラメータを算出して、前記第一から第九の歪み補正パラメータあるいは前記補間歪み補正パラメータのいずれかに基づいて前記被投影部材に投影されたときの前記表示画像の歪みを補正することを特徴とする表示装置の表示方法。
Display means for displaying a display image;
Display control means for displaying the display image on the display means;
A position detection means capable of detecting a viewer's viewpoint position, and a display device display method for projecting the display image onto a projection target member,
A first distortion correction parameter when the viewpoint position is at the upper end and the left end of the viewable range of the display image, and a second when the viewpoint position is at the upper end and the left and right center of the viewable range of the display image A distortion correction parameter, a third distortion correction parameter when the viewpoint position is the upper end and the right end of the viewable range of the display image, and the viewpoint position is the upper and lower center and the left end of the viewable range of the display image. The fourth distortion correction parameter in the case, the fifth distortion correction parameter in the case where the viewpoint position is the vertical center and the horizontal center of the display image viewable range, and the viewpoint position is the viewable range of the display image. And a seventh distortion correction parameter when the viewpoint position is the lower end and the left end of the viewable range of the display image. A meter, an eighth distortion correction parameter when the viewpoint position is the lower end and the center of the left and right of the display image, and the viewpoint position is the lower end and the right end of the display image A ninth storage unit for storing distortion correction parameters;
The display control means acquires any one of the first to ninth distortion correction parameters based on the viewpoint position, or interpolates between a plurality of the first to ninth distortion correction parameters. Then, the interpolation distortion correction parameter is calculated, and the distortion of the display image when projected onto the projection member is corrected based on any of the first to ninth distortion correction parameters or the interpolation distortion correction parameter. A display method for a display device.
前記表示制御手段は、前記視点位置が前記表示画像の視認可能範囲の上端かつ左端と上端かつ左右中央と上下中央かつ左端と上下中央かつ左右中央との間に位置する場合には、前記第一,第二,第四,第五の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左端と上下中央かつ左右中央と下端かつ左端と下端かつ左右中央との間に位置する場合には、前記第四,第五,第七,第八の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の上端かつ左右中央と上端かつ右端と上下中央かつ左右中央と上下中央かつ右端との間に位置する場合には、前記第二,第三,第五,第六の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出し、前記視点位置が前記表示画像の視認可能範囲の上下中央かつ左右中央と上下中央かつ右端と下端かつ左右中央と下端かつ右端との間に位置する場合には、前記第五,第六,第八,第九の歪み補正パラメータの間を補間処理して前記補間歪み補正パラメータを算出することを特徴とする請求項7に記載の表示装置の表示方法。 The display control means, when the viewpoint position is located between the upper end, the left end, the upper end, the left / right center, the upper / lower center, the left end, the upper / lower center, and the left / right center of the visible range of the display image, , Second, fourth, and fifth distortion correction parameters are interpolated to calculate the interpolation distortion correction parameters, and the viewpoint position is the upper and lower center, the left end, the upper and lower center, and the left and right sides of the visible range of the display image. When it is located between the center and the lower end and between the left end and the lower end and the center of the left and right, the interpolation distortion correction parameter is calculated by interpolating between the fourth, fifth, seventh and eighth distortion correction parameters. And when the viewpoint position is located between the upper end, the left and right center and the upper end, the right end and the upper and lower center, and the left and right center and the upper and lower center and the right end of the visible range of the display image, the second, third, Fifth and sixth distortions The interpolation distortion correction parameter is calculated by interpolating between positive parameters, and the viewpoint position is a vertical center, a horizontal center, a vertical center, a right edge and a bottom edge, a horizontal center, a bottom edge, and a right edge of the viewable range of the display image. 8. The interpolation distortion correction parameter is calculated by interpolating between the fifth, sixth, eighth, and ninth distortion correction parameters when the position is located between the fifth distortion correction parameter and the fifth distortion correction parameter. Display method of the display device.
JP2013097249A 2013-03-15 2013-05-07 Display device and display method thereof Pending JP2014199385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013097249A JP2014199385A (en) 2013-03-15 2013-05-07 Display device and display method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013053505 2013-03-15
JP2013053505 2013-03-15
JP2013097249A JP2014199385A (en) 2013-03-15 2013-05-07 Display device and display method thereof

Publications (1)

Publication Number Publication Date
JP2014199385A true JP2014199385A (en) 2014-10-23

Family

ID=52356323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013097249A Pending JP2014199385A (en) 2013-03-15 2013-05-07 Display device and display method thereof

Country Status (1)

Country Link
JP (1) JP2014199385A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161767A (en) * 2015-03-02 2016-09-05 アルプス電気株式会社 Image display device
JP2017026943A (en) * 2015-07-27 2017-02-02 株式会社東芝 Image display device and image processing device
WO2017033566A1 (en) * 2015-08-26 2017-03-02 富士フイルム株式会社 Projection-type display device, projection display method, and projection display program
JP2017097274A (en) * 2015-11-27 2017-06-01 株式会社デンソー Display correction device
CN108061968A (en) * 2018-01-05 2018-05-22 京东方科技集团股份有限公司 A kind of head-up display device and display image correcting method
JP2018093455A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and movable body
WO2018105533A1 (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and moving body
JP2018092107A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and movable body
WO2018105534A1 (en) * 2016-12-07 2018-06-14 京セラ株式会社 Light source device, display device, moving body, three-dimensional projection device, three-dimensional projection system, image projection device, and image display device
JP2018092085A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Light source device, display device, and movable body
JP2018092108A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and movable body
JP2018154153A (en) * 2017-03-15 2018-10-04 株式会社Subaru Vehicle display system and control method of vehicle display system
JP2019015823A (en) * 2017-07-05 2019-01-31 京セラ株式会社 Three-dimensional projector, three-dimensional projection system, and movable body
JP2019099030A (en) * 2017-12-06 2019-06-24 矢崎総業株式会社 Display device for vehicle
WO2020045350A1 (en) * 2018-08-29 2020-03-05 京セラ株式会社 Head-up display, head-up display system, and mobile body
DE112018005630T5 (en) 2017-11-24 2020-07-23 Maxell, Ltd. Head-up display device
JP2020160252A (en) * 2019-03-26 2020-10-01 京セラ株式会社 Image display module, image display system, movable body, image display method, and image display program
JP2021081586A (en) * 2019-11-19 2021-05-27 株式会社デンソー Display control device
WO2021132090A1 (en) * 2019-12-25 2021-07-01 日本精機株式会社 Display control device and head-up display device
WO2021152683A1 (en) * 2020-01-28 2021-08-05 三菱電機株式会社 Display control device, display control system, and display control method
WO2021228058A1 (en) * 2020-05-15 2021-11-18 华为技术有限公司 Imaging method, imaging apparatus, optical imaging system, and vehicle
WO2021241718A1 (en) * 2020-05-29 2021-12-02 日本精機株式会社 Head-up display device
US11514559B2 (en) 2018-03-30 2022-11-29 Panasonic Intellectual Property Management Co., Ltd. Image display system, image display method, storage medium, and moving vehicle including the image display system
EP4265460A4 (en) * 2020-12-16 2024-07-17 Sony Group Corp Display control apparatus, display control method, recording medium, and display system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0264612A (en) * 1988-08-31 1990-03-05 Shimadzu Corp Distortion correcting device for head up display
JP2003287707A (en) * 2002-03-27 2003-10-10 Denso Corp Image conversion method, image processor, headup display and program
JP2005092190A (en) * 2003-08-08 2005-04-07 Casio Comput Co Ltd Projector and projection image correction method thereof
JP2005135157A (en) * 2003-10-30 2005-05-26 Seiko Epson Corp Image processing circuit, image display device, and image processing method
JP2011209523A (en) * 2010-03-30 2011-10-20 Seiko Epson Corp Conversion device, image display device, and data conversion method
JP2013026824A (en) * 2011-07-21 2013-02-04 Mitsubishi Precision Co Ltd Method of correcting distortion in video, device of correcting distortion in video, simulated visual field display device and simulator for operation training

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0264612A (en) * 1988-08-31 1990-03-05 Shimadzu Corp Distortion correcting device for head up display
JP2003287707A (en) * 2002-03-27 2003-10-10 Denso Corp Image conversion method, image processor, headup display and program
JP2005092190A (en) * 2003-08-08 2005-04-07 Casio Comput Co Ltd Projector and projection image correction method thereof
JP2005135157A (en) * 2003-10-30 2005-05-26 Seiko Epson Corp Image processing circuit, image display device, and image processing method
JP2011209523A (en) * 2010-03-30 2011-10-20 Seiko Epson Corp Conversion device, image display device, and data conversion method
JP2013026824A (en) * 2011-07-21 2013-02-04 Mitsubishi Precision Co Ltd Method of correcting distortion in video, device of correcting distortion in video, simulated visual field display device and simulator for operation training

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161767A (en) * 2015-03-02 2016-09-05 アルプス電気株式会社 Image display device
JP2017026943A (en) * 2015-07-27 2017-02-02 株式会社東芝 Image display device and image processing device
WO2017033566A1 (en) * 2015-08-26 2017-03-02 富士フイルム株式会社 Projection-type display device, projection display method, and projection display program
JPWO2017033566A1 (en) * 2015-08-26 2017-12-21 富士フイルム株式会社 Projection display device, projection display method, and projection display program
CN107921871A (en) * 2015-08-26 2018-04-17 富士胶片株式会社 Projection display device, method for displaying projection and Projection Display program
DE112016003357B4 (en) 2015-08-26 2021-11-04 Fujifilm Corporation Projection type display device, projection display method and projection display program
US10768416B2 (en) 2015-08-26 2020-09-08 Fujifilm Corporation Projection type display device, projection display method, and projection display program
CN107921871B (en) * 2015-08-26 2020-05-19 富士胶片株式会社 Projection display device, projection display method, and non-transitory computer-readable storage medium storing projection display program
JP2017097274A (en) * 2015-11-27 2017-06-01 株式会社デンソー Display correction device
WO2017090318A1 (en) * 2015-11-27 2017-06-01 株式会社デンソー Display correction device
EP3554069A4 (en) * 2016-12-07 2020-05-06 Kyocera Corporation Image projection device, image display device, and moving body
KR102176902B1 (en) 2016-12-07 2020-11-10 교세라 가부시키가이샤 Image projection device, image display device and moving object
JP2018092085A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Light source device, display device, and movable body
JP2018092108A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and movable body
CN110073658B (en) * 2016-12-07 2022-04-22 京瓷株式会社 Image projection apparatus, image display apparatus, and moving object
US11221481B2 (en) 2016-12-07 2022-01-11 Kyocera Corporation Image projection apparatus, image display apparatus, and vehicle
CN110073659B (en) * 2016-12-07 2021-10-12 京瓷株式会社 Image projection apparatus
US10923003B2 (en) 2016-12-07 2021-02-16 Kyocera Corporation Light source apparatus, display apparatus, vehicle, three-dimensional projection apparatus, three-dimensional projection system, image projection apparatus, and image display apparatus
KR20190084086A (en) * 2016-12-07 2019-07-15 쿄세라 코포레이션 Image projection apparatus, image display apparatus and moving object
KR20190084275A (en) * 2016-12-07 2019-07-16 쿄세라 코포레이션 A light source device, a display device, a moving object, a three-dimensional projection device, a three-dimensional projection system, an image projection device, and an image display device
CN110073659A (en) * 2016-12-07 2019-07-30 京瓷株式会社 Light supply apparatus, display equipment, moving body, three-dimensional projection device, tripleplane's system, image projection device and image display device
CN110073658A (en) * 2016-12-07 2019-07-30 京瓷株式会社 Image projection device, image display device and moving body
WO2018105534A1 (en) * 2016-12-07 2018-06-14 京セラ株式会社 Light source device, display device, moving body, three-dimensional projection device, three-dimensional projection system, image projection device, and image display device
JP2018093455A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and movable body
EP3554068A4 (en) * 2016-12-07 2020-04-29 Kyocera Corporation Light source device, display device, moving body, three-dimensional projection device, three-dimensional projection system, image projection device, and image display device
JP2018092107A (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and movable body
WO2018105533A1 (en) * 2016-12-07 2018-06-14 京セラ株式会社 Image projection device, image display device, and moving body
KR102134140B1 (en) 2016-12-07 2020-07-15 교세라 가부시키가이샤 Light source device, display device, moving object, three-dimensional projection device, three-dimensional projection system, image projection device, and image display device
JP2018154153A (en) * 2017-03-15 2018-10-04 株式会社Subaru Vehicle display system and control method of vehicle display system
JP2019015823A (en) * 2017-07-05 2019-01-31 京セラ株式会社 Three-dimensional projector, three-dimensional projection system, and movable body
DE112018005630T5 (en) 2017-11-24 2020-07-23 Maxell, Ltd. Head-up display device
US11709369B2 (en) 2017-11-24 2023-07-25 Maxell, Ltd. Head up display apparatus
DE112018005630B4 (en) 2017-11-24 2021-11-25 Maxell, Ltd. Head-up display device
JP2019099030A (en) * 2017-12-06 2019-06-24 矢崎総業株式会社 Display device for vehicle
CN108061968A (en) * 2018-01-05 2018-05-22 京东方科技集团股份有限公司 A kind of head-up display device and display image correcting method
WO2019134345A1 (en) * 2018-01-05 2019-07-11 Boe Technology Group Co., Ltd. Virtual image display apparatus, and method for reducing in real time imaging distortion in virtual image displayed by virtual image display apparatus
US11514559B2 (en) 2018-03-30 2022-11-29 Panasonic Intellectual Property Management Co., Ltd. Image display system, image display method, storage medium, and moving vehicle including the image display system
US11983856B2 (en) 2018-03-30 2024-05-14 Panasonic Automotive Systems Co., Ltd. Image display system, image display method, storage medium, and moving vehicle including the image display system
CN112585025A (en) * 2018-08-29 2021-03-30 京瓷株式会社 Head-mounted display, head-mounted display system, and moving object
JP6668564B1 (en) * 2018-08-29 2020-03-18 京セラ株式会社 Head-up display, head-up display system, and moving object
WO2020045350A1 (en) * 2018-08-29 2020-03-05 京セラ株式会社 Head-up display, head-up display system, and mobile body
JP2020160252A (en) * 2019-03-26 2020-10-01 京セラ株式会社 Image display module, image display system, movable body, image display method, and image display program
CN113614619B (en) * 2019-03-26 2023-10-27 京瓷株式会社 Image display module, image display system, moving object, image display method, and image display program
CN113614619A (en) * 2019-03-26 2021-11-05 京瓷株式会社 Image display module, image display system, moving object, image display method, and image display program
JP7141975B2 (en) 2019-03-26 2022-09-26 京セラ株式会社 Image display module, image display system, moving body, image display method, and image display program
US11849103B2 (en) 2019-03-26 2023-12-19 Kyocera Corporation Image display module, image display system, movable object, image display method, and non-transitory computer-readable medium storing image display program
JP7238739B2 (en) 2019-11-19 2023-03-14 株式会社デンソー display controller
JP2021081586A (en) * 2019-11-19 2021-05-27 株式会社デンソー Display control device
DE112020006311T5 (en) 2019-12-25 2022-10-13 Nippon Seiki Co., Ltd. Display control device and head-up display device
WO2021132090A1 (en) * 2019-12-25 2021-07-01 日本精機株式会社 Display control device and head-up display device
WO2021152683A1 (en) * 2020-01-28 2021-08-05 三菱電機株式会社 Display control device, display control system, and display control method
WO2021228058A1 (en) * 2020-05-15 2021-11-18 华为技术有限公司 Imaging method, imaging apparatus, optical imaging system, and vehicle
WO2021241718A1 (en) * 2020-05-29 2021-12-02 日本精機株式会社 Head-up display device
EP4265460A4 (en) * 2020-12-16 2024-07-17 Sony Group Corp Display control apparatus, display control method, recording medium, and display system

Similar Documents

Publication Publication Date Title
JP2014199385A (en) Display device and display method thereof
JP2014150304A (en) Display device and display method therefor
JP5222597B2 (en) Image processing apparatus and method, driving support system, and vehicle
JP6160398B2 (en) Head-up display device
JP6669569B2 (en) Perimeter monitoring device for vehicles
US9690104B2 (en) Augmented reality HUD display method and device for vehicle
JP4924896B2 (en) Vehicle periphery monitoring device
US9813619B2 (en) Apparatus and method for correcting image distortion of a camera for vehicle
JP4257356B2 (en) Image generating apparatus and image generating method
JP5491235B2 (en) Camera calibration device
JP2015087619A (en) Vehicle information projection system and projection device
CN107438538B (en) Method for displaying the vehicle surroundings of a vehicle
JP2023029340A (en) Video display system, video display method and program
US20090128686A1 (en) Imaging apparatus
JP2009230235A (en) Image processor and method, driving support system, and vehicle
JP4825244B2 (en) Stereoscopic image display device and stereoscopic image display method
JP6726006B2 (en) Calculation of distance and direction of target point from vehicle using monocular video camera
JP2017003684A (en) Head-up display device
US20100149319A1 (en) System for projecting three-dimensional images onto a two-dimensional screen and corresponding method
JP2021103274A (en) Head-up display device
JP2019102936A (en) Display device, electronic mirror, control method of display device, and display control program
JP2019169828A (en) On-vehicle display control unit and on-vehicle display control method
KR20170066749A (en) Apparatus and method for compensating image distortion in head up display for vehicle
JP6688212B2 (en) Image projection device, image display device, and moving body
KR102591844B1 (en) Apparatus for camera calibration using mirrors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170523