JP2017047794A - Distortion correction method for head-up display and distortion correction device for head-up display using the same - Google Patents

Distortion correction method for head-up display and distortion correction device for head-up display using the same Download PDF

Info

Publication number
JP2017047794A
JP2017047794A JP2015172989A JP2015172989A JP2017047794A JP 2017047794 A JP2017047794 A JP 2017047794A JP 2015172989 A JP2015172989 A JP 2015172989A JP 2015172989 A JP2015172989 A JP 2015172989A JP 2017047794 A JP2017047794 A JP 2017047794A
Authority
JP
Japan
Prior art keywords
image
imaging unit
viewpoint
coordinate
coordinate correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015172989A
Other languages
Japanese (ja)
Other versions
JP6390032B2 (en
Inventor
奈緒美 山▲崎▼
Naomi Yamasaki
奈緒美 山▲崎▼
康次 桑原
Koji Kuwabara
康次 桑原
孝 小室
Takashi Komuro
孝 小室
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Corp
Saitama University NUC
Original Assignee
Calsonic Kansei Corp
Saitama University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Calsonic Kansei Corp, Saitama University NUC filed Critical Calsonic Kansei Corp
Priority to JP2015172989A priority Critical patent/JP6390032B2/en
Publication of JP2017047794A publication Critical patent/JP2017047794A/en
Application granted granted Critical
Publication of JP6390032B2 publication Critical patent/JP6390032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate a head-up display (HUD) image without distortion with small calculation amount regardless of the position of a viewpoint.SOLUTION: An installation position of an imaging section 40 placed to be directed in a prescribed direction is detected at the position of a viewpoint 52 of a driver, a projection image Ip of a reference pattern Ir projected on a front visual field of the driver is captured by the imaging section 40, and a first coordinate correspondence relation between the reference pattern Ir and a point corresponding to the projection image Ip is calculated. A second coordinate corresponding relation between the reference pattern Ir at the actually detected position of the viewpoint 52 and a point corresponding to a projection image Ip which is predicted to be captured from the viewpoint 52 is estimated using the first coordinate correspondence relations obtained at a plurality of installation positions of the imaging section 40, and coordinate conversion tables Mip_x and Mip_y are generated to deform the reference pattern Ir so that the projection image Ip can be observed without distortion from the viewpoint 52. On the basis of the generated coordinate conversion tables, preliminarily deformed image information is generated and projected so as to generate a head-up display (HUD) image Ii.SELECTED DRAWING: Figure 1

Description

本発明は、運転者の前方に虚像を結像させて必要な情報を表示する車両用ヘッドアップディスプレイ装置に関するものである。   The present invention relates to a vehicle head-up display device that displays a necessary information by forming a virtual image in front of a driver.

昨今、航空機や自動車等のフロントウインドウガラスに表示像を投影して、操縦者や運転者の前方に虚像を結像させて、視線を前方からそらすことなく表示像を視認することが可能なヘッドアップディスプレイ装置が実用化されている(例えば特許文献1,非特許文献1)。   Recently, a head that can project a display image on the front window glass of an aircraft, an automobile, etc. to form a virtual image in front of the driver or driver, and visually recognize the display image without diverting the line of sight from the front. Up-display devices have been put into practical use (for example, Patent Literature 1 and Non-Patent Literature 1).

このようなヘッドアップディスプレイ装置にあっては、コンバイナと呼ばれる反射部材やフロントウインドウガラスに虚像を表示しているため、表示される虚像には歪が生じていた。そのため、例えば特許文献1にあっては、虚像を投影する光学系の光学パラメータを調整することによって、虚像の歪を低減させていた。また、非特許文献1にあっては、視点移動に対応して虚像の歪補正を行っていた。   In such a head-up display device, since a virtual image is displayed on a reflective member called a combiner or a front window glass, the displayed virtual image is distorted. Therefore, for example, in Patent Document 1, the distortion of the virtual image is reduced by adjusting the optical parameter of the optical system that projects the virtual image. In Non-Patent Document 1, virtual image distortion correction is performed in response to viewpoint movement.

米国特許第3723805号U.S. Pat. No. 3,723,805

Folker Wientapper, 他3名, "A Camera-Based Calibration for Automotive Augmented Reality Head-Up-Displays", IEEE International Symposium on Mixed and Augmented Reality 2013 Science and Technology Proceedings, 1-4 October 2013, Adelaide, SA, AustraliaFolker Wientapper, 3 others, "A Camera-Based Calibration for Automotive Augmented Reality Head-Up-Displays", IEEE International Symposium on Mixed and Augmented Reality 2013 Science and Technology Proceedings, 1-4 October 2013, Adelaide, SA, Australia

しかしながら、特許文献1に記載されたヘッドアップディスプレイ装置にあっては、観測者の視点位置の移動には対応していなかった。   However, the head-up display device described in Patent Document 1 does not support the movement of the observer's viewpoint position.

したがって、観測者が、予め決められた位置にいるときには歪のない虚像を観測することができるが、観測者の視点位置が移動したときには、虚像の歪が発生して、その歪を補正することはできないという問題があった。   Therefore, it is possible to observe a virtual image without distortion when the observer is at a predetermined position. However, when the observer's viewpoint position moves, distortion of the virtual image occurs and the distortion is corrected. There was a problem that I could not.

また、非特許文献1に記載されたヘッドアップディスプレイ装置にあっては、予め、既知のドットパターンをヘッドアップディスプレイに表示して、この表示像をカメラを移動させながら撮影することによって観測画像を得、この観測画像におけるドットパターンを表す点の位置と、歪のない理想的な表示像の点の位置と、の差を視点位置(カメラ位置)とカメラ画像の座標の三次多項式で表して、その係数を最小二乗法によって求めていた。   In the head-up display device described in Non-Patent Document 1, a known dot pattern is displayed on the head-up display in advance, and an observation image is captured by moving the camera while moving the display image. The difference between the position of the point representing the dot pattern in this observed image and the position of the ideal display image without distortion is expressed by a cubic polynomial of the viewpoint position (camera position) and the coordinates of the camera image, The coefficient was obtained by the method of least squares.

その際、カメラを移動させながら多くの枚数(例えば1000枚以上)の画像を撮像する必要があるため、作業の手間がかかるという問題があった。   At that time, since it is necessary to take a large number of images (for example, 1000 or more) while moving the camera, there is a problem that work is required.

本発明は、このような従来の問題点に鑑みなされたもので、視点位置に関わらず歪のないヘッドアップディスプレイの投影像を、少ない計算量で効率よく生成することを目的とするものである。   The present invention has been made in view of such conventional problems, and an object of the present invention is to efficiently generate a projection image of a head-up display without distortion regardless of the viewpoint position with a small amount of calculation. .

前記課題を解決するために、本発明に係るヘッドアップディスプレイの歪補正方法は、運転者の前方視界の中に虚像を表示するヘッドアップディスプレイの歪補正方法であって、運転者の視点の位置に相当する位置に車両の前方へ向けて撮像部を設置する撮像部設置プロセスと、前記撮像部が所定の方向に向くように調整する観測方向調整プロセスと、前記撮像部の設置位置を検出する撮像部位置検出プロセスと、運転者の前方視界の中に基準パターンを投影して投影像を生成する基準パターン投影プロセスと、前記投影像を前記撮像部で撮像して撮像画像を得る投影像撮像プロセスと、前記基準パターンを構成する点の座標と、前記撮像画像の中の前記点と同じ点の座標と、の間の第1の座標対応関係を算出する第1の座標対応関係算出プロセスと、前記撮像部の設置位置を変更する撮像部位置変更プロセスと、前記撮像部の各設置位置において、前記第1の座標対応関係算出プロセスを繰り返して行うことによって得られた各第1の座標対応関係をそれぞれ記憶する第1の座標対応関係記憶プロセスと、運転者の視点の位置を検出する運転者視点位置検出プロセスと、前記各第1の座標対応関係に基づいて、前記撮像部を前記視点の位置に設置したときに得られると考えられる、前記基準パターンを構成する点の座標と、前記視点の位置で撮像されると予測される前記基準パターンの投影像の中の前記点と同じ点の座標と、の間の第2の座標対応関係を推定する第2の座標対応関係推定ステップと、前記視点の位置において推定された前記第2の座標対応関係に基づいて予め変形された画像情報を生成する画像情報生成プロセスと、前記画像情報を投影して投影像を生成する画像情報投影プロセスと、からなることを特徴とする。   In order to solve the above problems, a head-up display distortion correction method according to the present invention is a head-up display distortion correction method for displaying a virtual image in the driver's forward field of view, wherein the position of the driver's viewpoint is An imaging unit installation process for installing the imaging unit toward the front of the vehicle at a position corresponding to the above, an observation direction adjustment process for adjusting the imaging unit so as to face a predetermined direction, and an installation position of the imaging unit are detected An image pickup unit position detection process, a reference pattern projection process for projecting a reference pattern into the driver's forward field of view to generate a projection image, and a projection image capturing for capturing the projection image by the image pickup unit. A first coordinate correspondence calculation process for calculating a first coordinate correspondence between the process, the coordinates of the points constituting the reference pattern, and the coordinates of the same point as the point in the captured image. The first coordinate correspondence calculation process at each installation position of the imaging unit and the first coordinate correspondence calculation process at each installation position of the imaging unit. Based on the first coordinate correspondence relationship, the first coordinate correspondence relationship storage process for storing the coordinate correspondence relationship, the driver viewpoint position detection process for detecting the position of the driver's viewpoint, and the first coordinate correspondence relationship, The coordinates of the points constituting the reference pattern, which are considered to be obtained when installed at the viewpoint position, and the points in the projected image of the reference pattern predicted to be imaged at the viewpoint position; Based on the second coordinate correspondence estimation step for estimating a second coordinate correspondence between the coordinates of the same point and the second coordinate correspondence estimated at the position of the viewpoint. An image information generation process of generating the image information, characterized the image information projecting process, in that it consists of generating a projection image by projecting the image information.

本発明に係るヘッドアップディスプレイの歪補正方法によれば、前記した構成とすることによって、運転者の視点の位置によらずに、歪が補正されたヘッドアップディスプレイ投影像を表示するために投影する、予め逆方向に歪ませた変形パターンを容易に生成することができる。   According to the head-up display distortion correction method of the present invention, the above-described configuration enables projection to display a head-up display projection image with corrected distortion regardless of the position of the driver's viewpoint. Thus, it is possible to easily generate a deformation pattern distorted in the reverse direction in advance.

本発明の一実施形態である実施例1に係るヘッドアップディスプレイの歪補正方法を用いたヘッドアップディスプレイの歪補正装置の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the distortion correction apparatus of the head-up display using the distortion correction method of the head-up display which concerns on Example 1 which is one Embodiment of this invention. 図1に示したヘッドアップディスプレイの歪補正装置を用いて、校正を行う際に必要な構成要素のみを示した機能ブロック図である。FIG. 3 is a functional block diagram showing only components necessary for calibration using the head-up display distortion correction apparatus shown in FIG. 1. 図1に示したヘッドアップディスプレイの歪補正装置を用いて、歪補正されたヘッドアップディスプレイの投影像を生成して表示する際に必要な構成要素のみを示した機能ブロック図である。FIG. 2 is a functional block diagram showing only components necessary for generating and displaying a projected image of a head-up display whose distortion has been corrected using the head-up display distortion correcting apparatus shown in FIG. 1. 実施例1で実施する校正の内容について説明する図であり、(a)は基準パターンの一例を示す図である。(b)は基準パターンの投影像の一例を示す図である。(c)は基準パターンの投影像を撮像したカメラ画像の一例を示す図である。It is a figure explaining the content of the calibration implemented in Example 1, (a) is a figure which shows an example of a reference | standard pattern. (B) is a figure which shows an example of the projection image of a reference | standard pattern. (C) is a figure which shows an example of the camera image which imaged the projection image of the reference | standard pattern. 校正を行う際に利用するグレイコードについて説明する図である。It is a figure explaining the gray code utilized when calibrating. 作成する対応マップについて説明する図であり、(a)は歪のないヘッドアップディスプレイ表示像を投影するために形成された事前変形パターンの一例を示す図である。(b)は歪のないヘッドアップディスプレイ表示像の一例を示す図である。It is a figure explaining the corresponding map to produce, (a) is a figure showing an example of a prior deformation pattern formed in order to project a head-up display display image without distortion. (B) is a figure which shows an example of a head-up display display image without distortion. 実施例1において、撮像部を移動させた際に行う位置合わせの方法について説明する図である。In Embodiment 1, it is a figure explaining the method of the alignment performed when moving an imaging part. 任意の視点位置における対応マップを補間生成する方法について説明する第1の図であり、移動させた撮像部の複数の設置位置の一例を示す図である。It is a 1st figure explaining the method of carrying out the interpolation production | generation of the corresponding map in arbitrary viewpoint positions, and is a figure which shows an example of the several installation position of the moved imaging part. 任意の視点位置における対応マップを補間生成する第1の方法について説明する図であり、対応マップを視点位置の一次式で表す方法について説明する図である。It is a figure explaining the 1st method of carrying out the interpolation production | generation of the corresponding | compatible map in arbitrary viewpoint positions, and is a figure explaining the method of expressing a corresponding | compatible map with a primary expression of a viewpoint position. 任意の視点位置における対応マップを補間生成する第2の方法について説明する図であり、対応マップを視点位置の区分線形関数で表す方法について説明する図である。It is a figure explaining the 2nd method of carrying out the interpolation production | generation of the corresponding map in arbitrary viewpoint positions, and is a figure explaining the method of expressing a correspondence map by the piecewise linear function of a viewpoint position. 実施例1における校正の一連の処理の流れを示す第1のフローチャートである。6 is a first flowchart showing a flow of a series of calibration processes in the first embodiment. 実施例1における校正の一連の処理の流れを示す第2のフローチャートである。6 is a second flowchart showing a flow of a series of calibration processes in the first embodiment. 実施例1において歪のないHUD表示像を投影する一連の流れを示すフローチャートである。6 is a flowchart illustrating a series of flows for projecting a distortion-free HUD display image in the first embodiment.

以下、本発明のヘッドアップディスプレイの歪補正方法の具体的な実施形態について、図面を参照して説明する。   Hereinafter, a specific embodiment of a head-up display distortion correction method of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態であるヘッドアップディスプレイの歪補正方法を用いたヘッドアップディスプレイの歪補正装置100の構成を示す機能ブロック図である。また、図2は、図1に示したヘッドアップディスプレイの歪補正装置100のうち、校正を行う際に必要となる構成部位のみを示す機能ブロック図である。そして、図3は、図1に示したヘッドアップディスプレイの歪補正装置100のうち、実際に歪が補正されたヘッドアップディスプレイの投影像(以下、HUD表示像)を表示する際に必要となる構成部位のみを示す機能ブロック図である。   FIG. 1 is a functional block diagram showing a configuration of a head-up display distortion correction apparatus 100 using a head-up display distortion correction method according to an embodiment of the present invention. FIG. 2 is a functional block diagram showing only components necessary for calibration in the head-up display distortion correction apparatus 100 shown in FIG. FIG. 3 is necessary for displaying a head-up display projection image (hereinafter referred to as a HUD display image) in which distortion is actually corrected in the head-up display distortion correction apparatus 100 shown in FIG. It is a functional block diagram which shows only a structure part.

以下、図1から図3を用いて、ヘッドアップディスプレイの歪補正装置100の全体構成について説明する。   The overall configuration of the head-up display distortion correction apparatus 100 will be described below with reference to FIGS. 1 to 3.

(ヘッドアップディスプレイの歪補正装置の全体構成の説明)
図1に示すように、ヘッドアップディスプレイの歪補正装置100は、図1に非図示の車両に搭載されており、車両のウインドシールド16に投影されて虚像表示を生成する基準パターン・画像情報生成部10と、車速や誘導経路情報等の画像情報を生成するために必要な車両情報を取得する車両情報取得部12と、基準パターン・画像情報生成部10で生成された画像情報をウインドシールド16に向かって投影して、基準パターンの投影像IpまたはHUD表示像Iiを生成させる情報投影部14と、基準パターンの投影像Ipを観測する撮像部40と、撮像部40または運転者50の視点52を観測する、撮像部・視点観測カメラ60と、撮像部・視点観測カメラ60で観測された画像の中から、撮像部40の設置位置、または運転者50の視点52の位置を検出する撮像部設置位置・視点位置検出部64と、基準パターン・画像情報生成部10で生成された基準パターンと撮像部40で撮像した、基準パターンの投影像Ipとから、同じ点を表す座標同士の対応関係である第1の座標対応関係を算出する第1の座標対応関係算出部70と、算出された第1の座標対応関係に基づいて生成された対応マップを記憶する対応マップ記憶部80(第1の座標対応関係記憶部)と、第1の座標対応関係に基づいて、運転者50の視点52の位置において得られると推定される、基準パターンの投影像Ipと、その投影像Ipを投影するための基準パターンと、の同じ点を表す座標同士の対応関係である第2の座標対応関係を推定して、推定された第2の座標対応関係に基づいて、視点52の位置において歪のないHUD表示像Ii(投影像)が観測されるように予め変形された事前変形パターンId(図4C(a))を生成するための座標変換テーブルを生成する座標変換テーブル生成部90(第2の座標対応関係推定部)と、からなる。
(Description of overall configuration of head-up display distortion correction device)
As shown in FIG. 1, a head-up display distortion correction apparatus 100 is mounted on a vehicle (not shown) in FIG. 1 and is projected onto a windshield 16 of the vehicle to generate a reference image / image information. Unit 10, vehicle information acquisition unit 12 that acquires vehicle information necessary for generating image information such as vehicle speed and guidance route information, and the image information generated by reference pattern / image information generation unit 10 as windshield 16 The information projection unit 14 that projects the image of the reference pattern to generate the projection image Ip or the HUD display image Ii of the reference pattern, the imaging unit 40 that observes the projection image Ip of the reference pattern, and the viewpoint of the imaging unit 40 or the driver 50 52, the installation position of the imaging unit 40 or the driver from the images observed by the imaging unit / viewpoint observation camera 60 and the imaging unit / viewpoint observation camera 60 An imaging unit installation position / viewpoint position detection unit 64 that detects the position of the zero viewpoint 52, a reference pattern generated by the reference pattern / image information generation unit 10, and a projected image Ip of the reference pattern captured by the imaging unit 40 A first coordinate correspondence calculation unit 70 for calculating a first coordinate correspondence that is a correspondence between coordinates representing the same point, and a correspondence map generated based on the calculated first coordinate correspondence The reference map projection estimated to be obtained at the position of the viewpoint 52 of the driver 50 based on the correspondence map storage unit 80 (first coordinate correspondence storage unit) that stores A second coordinate correspondence relationship, which is a correspondence relationship between coordinates representing the same point of the image Ip and a reference pattern for projecting the projection image Ip, is estimated, and the estimated second coordinate correspondence relationship is obtained. Based, vision A coordinate conversion table for generating a coordinate conversion table for generating a pre-deformed pattern Id (FIG. 4C (a)) deformed in advance so that a distortion-free HUD display image Ii (projected image) is observed at the position 52. A generation unit 90 (second coordinate correspondence estimation unit).

ヘッドアップディスプレイの歪補正装置100を使用する際には、予め、投影像の歪の補正に必要な情報を収集する、いわゆる校正を行う必要がある。そして、校正が終了した後で、実際に運転者50の視点52の位置を計測して、視点位置に応じた歪のないHUD表示像Iiの生成・表示を行う。その際、図1に示した各構成部位が、「校正」と「HUD表示像Iiの生成・表示」のそれぞれの場面に応じて機能する。   When the head-up display distortion correction apparatus 100 is used, it is necessary to perform so-called calibration to collect information necessary for correcting distortion of the projected image in advance. Then, after calibration is completed, the position of the viewpoint 52 of the driver 50 is actually measured, and a distortion-free HUD display image Ii corresponding to the viewpoint position is generated and displayed. At this time, each component shown in FIG. 1 functions in accordance with each scene of “calibration” and “generation / display of HUD display image Ii”.

図2は、ヘッドアップディスプレイの歪補正装置100を用いて校正を行う際の機能構成を示す。   FIG. 2 shows a functional configuration when calibration is performed using the distortion correction apparatus 100 of the head-up display.

校正時には、図2に示すように、図1に示した構成部位の一部のみが、校正を行うために必要な機能を発揮する。すなわち、図1に示した基準パターン・画像情報生成部10は、校正用の基準パターンIr(図4A)を生成する基準パターン生成部10aとして機能する。そして、情報投影部14から投影された基準パターンIrは、ウインドシールド16で正反射して基準パターンの投影像Ipを生成する。   At the time of calibration, as shown in FIG. 2, only a part of the components shown in FIG. 1 exhibits a function necessary for calibration. That is, the reference pattern / image information generation unit 10 shown in FIG. 1 functions as a reference pattern generation unit 10a that generates a calibration reference pattern Ir (FIG. 4A). The reference pattern Ir projected from the information projection unit 14 is regularly reflected by the windshield 16 to generate a projected image Ip of the reference pattern.

図1に示した撮像部・視点観測カメラ60は、基準パターンの投影像Ipを観測するために設置された撮像部40を観測する撮像部観測カメラ60aとして機能する。そして、図1に示した撮像部設置位置・視点位置検出部64は、撮像部40の設置位置を検出する撮像部設置位置検出部64aとして機能する。また、座標変換テーブル生成部90(第2の座標対応関係推定部)は、事前変形パターンId(図4C(a))を生成するための座標変換テーブルを生成して記憶する。   The imaging unit / viewpoint observation camera 60 illustrated in FIG. 1 functions as an imaging unit observation camera 60a that observes the imaging unit 40 installed to observe the projected image Ip of the reference pattern. The imaging unit installation position / viewpoint position detection unit 64 illustrated in FIG. 1 functions as an imaging unit installation position detection unit 64 a that detects the installation position of the imaging unit 40. In addition, the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit) generates and stores a coordinate conversion table for generating the pre-deformed pattern Id (FIG. 4C (a)).

なお、図1に示した第1の座標対応関係算出部70,対応マップ記憶部80(第1の座標対応関係記憶部)は、そのまま用いられる。   Note that the first coordinate correspondence calculation unit 70 and the correspondence map storage unit 80 (first coordinate correspondence storage unit) shown in FIG. 1 are used as they are.

図3は、ヘッドアップディスプレイの歪補正装置100を用いて、実際にHUD表示像Iiの表示を行う際、すなわち実運用時の機能構成を示す。   FIG. 3 shows a functional configuration when the HUD display image Ii is actually displayed using the head-up display distortion correction apparatus 100, that is, in actual operation.

実運用時には、図3に示すように、図1に示した構成部位のうち必要な部位のみが、HUD表示像Iiの生成・表示を行うために必要な機能を発揮する。   At the time of actual operation, as shown in FIG. 3, only a necessary part among the constituent parts shown in FIG. 1 exhibits a function necessary for generating and displaying the HUD display image Ii.

すなわち、図1に示した撮像部・視点観測カメラ60は、運転者50の視点52を観測する視点観測カメラ60bとして機能する。なお、この撮像部・視点観測カメラ60は、図1に非図示の車両の、例えばインスツルメントパネルに、視点の存在範囲であるアイレンジ全体を観測できるようなレイアウトで設置されている。そして、図1に示した撮像部設置位置・視点位置検出部64は、視点52の位置を検出する視点位置検出部64bとして機能する。   That is, the imaging unit / viewpoint observation camera 60 illustrated in FIG. 1 functions as a viewpoint observation camera 60b that observes the viewpoint 52 of the driver 50. The imaging unit / viewpoint observation camera 60 is installed on a vehicle (not shown in FIG. 1), for example, on an instrument panel in a layout that allows the entire eye range, which is the range of viewpoints, to be observed. The imaging unit installation position / viewpoint position detection unit 64 illustrated in FIG. 1 functions as a viewpoint position detection unit 64 b that detects the position of the viewpoint 52.

なお、図1に示した座標変換テーブル生成部90は、視点位置検出部64bで検出された視点52の位置に応じた座標変換テーブルを読み出して、読み出した座標変換テーブルを画像情報生成部10bに提供する。画像情報生成部10bは、車両情報取得部12から取得した車両情報を参照し、座標変換テーブル生成部90から読み出した座標変換テーブルを用いて、車速や誘導経路等の車両情報を含む画像情報を生成する。そして、生成された画像情報は情報投影部14から投影されて、ウインドシールド16で正反射してHUD表示像Iiを生成する。   The coordinate conversion table generation unit 90 illustrated in FIG. 1 reads a coordinate conversion table corresponding to the position of the viewpoint 52 detected by the viewpoint position detection unit 64b, and stores the read coordinate conversion table in the image information generation unit 10b. provide. The image information generation unit 10b refers to the vehicle information acquired from the vehicle information acquisition unit 12, and uses the coordinate conversion table read from the coordinate conversion table generation unit 90 to obtain image information including vehicle information such as vehicle speed and guidance route. Generate. Then, the generated image information is projected from the information projection unit 14 and regularly reflected by the windshield 16 to generate the HUD display image Ii.

(校正の説明)
図4A〜図4Cを用いて、校正の概要を説明する。基準パターンの投影像Ip上の点Q(p,q)と、図4A(a)に示した基準パターンIr上の点R(u,v)との対応関係は、式1によって記述される。
[式1]
(Explanation of calibration)
An outline of calibration will be described with reference to FIGS. 4A to 4C. The correspondence between the point Q (p, q) on the projected image Ip of the reference pattern and the point R (u, v) on the reference pattern Ir shown in FIG.
[Formula 1]

式1に記載したMcp_xは水平座標の対応マップを表しており、Mcp_x(x,y)は、カメラ画像Icの点P(x,y)と対応する基準パターンIrの水平座標uを表している。また、Mcp,yは垂直座標の対応マップを表しており、Mcp_y(x,y)は、カメラ画像Icの点P(x,y)と対応する基準パターンIrの垂直座標vを表している。   Mcp_x described in Expression 1 represents a horizontal coordinate correspondence map, and Mcp_x (x, y) represents a horizontal coordinate u of the reference pattern Ir corresponding to the point P (x, y) of the camera image Ic. . Mcp, y represents a vertical coordinate correspondence map, and Mcp_y (x, y) represents the vertical coordinate v of the reference pattern Ir corresponding to the point P (x, y) of the camera image Ic.

図4A(a)〜図4A(c)は、基準パターンIrと、基準パターンの投影像Ipと、カメラ画像Icの関係の一例を示す図である。すなわち、図4A(a)〜図4A(c)は、基準パターンIr上の任意の点R(u,v)が、基準パターンIrの投影像Ip上の点Q(p,q)に投影されて、この点Q(p,q)がカメラ画像Ic上の点P(x,y)の位置に観測されることを示している。   4A (a) to 4A (c) are diagrams illustrating an example of the relationship among the reference pattern Ir, the projected image Ip of the reference pattern, and the camera image Ic. That is, in FIGS. 4A (a) to 4A (c), an arbitrary point R (u, v) on the reference pattern Ir is projected onto a point Q (p, q) on the projected image Ip of the reference pattern Ir. Thus, this point Q (p, q) is observed at the position of the point P (x, y) on the camera image Ic.

なお、図4A(a)〜図4A(c)において、カメラ画像Ic上の点P(x,y)の位置が、基準パターンIr上の点R(u,v)の位置と対応していること、すなわち、同じ点を表していることを、本発明において第1の座標対応関係と呼ぶ。   4A (a) to 4A (c), the position of the point P (x, y) on the camera image Ic corresponds to the position of the point R (u, v) on the reference pattern Ir. That is, representing the same point is called a first coordinate correspondence in the present invention.

(対応点の特定方法の説明)
次に、カメラ画像Ic上の点P(x,y)と対応する(一致する)、基準パターンIrの投影像Ip上の点Q(p,q)を特定する方法について、図4Bを用いて説明する。
(Description of how to identify corresponding points)
Next, a method for specifying the point Q (p, q) on the projection image Ip of the reference pattern Ir corresponding to (matching with) the point P (x, y) on the camera image Ic will be described with reference to FIG. 4B. explain.

図4Bは、基準パターン(Ir1,Ir2,Ir3,…)の一例を示す図である。本実施例においては、基準パターンIrの投影像Ip上の点とカメラ画像Ic上の点の対応関係を求めるために、複数の異なる基準パターン(Ir1,Ir2,Ir3,…)を順次投影する。   FIG. 4B is a diagram illustrating an example of a reference pattern (Ir1, Ir2, Ir3,...). In the present embodiment, a plurality of different reference patterns (Ir1, Ir2, Ir3,...) Are sequentially projected in order to obtain the correspondence between the points on the projected image Ip of the reference pattern Ir and the points on the camera image Ic.

図4Bに示した基準パターン(Ir1,Ir2,Ir3,…)はグレイコードと呼ばれる符号化されたデータ列を2次元のパターンで表現したものである。図4Bの斜線を付した領域は「黒帯」、斜線を付していない領域は「白帯」で形成されている。図4Bに示した複数のパターン(Ir1,Ir2,Ir3,…)を順次投影して、投影像の各点に、白帯と黒帯がどんな順序で投影されたかを観測することによって、投影像の各点の座標をコード化することができる。   The reference pattern (Ir1, Ir2, Ir3,...) Shown in FIG. 4B represents a coded data string called a Gray code in a two-dimensional pattern. The hatched area in FIG. 4B is formed with “black band”, and the non-hatched area is formed with “white band”. By sequentially projecting a plurality of patterns (Ir1, Ir2, Ir3,...) Shown in FIG. 4B and observing in what order the white and black bands are projected at each point of the projected image, a projected image is obtained. The coordinates of each point can be coded.

例えば、図4Bに示す点Aに着目する。基準パターンIr1を投影したとき、点Aには黒帯が投影される。このように黒帯が投影された点は“0”で表すものとする。同様にして基準パターンIr2を投影したときには、点Aには黒帯が投影される。すなわち、点Aは“0”で表される。そして、基準パターンIr3を投影したときには、点Aには白帯が投影される。このように白帯が投影された点は“1”で表すものとする。したがって、図4Bに示す点Aの座標は、3枚の基準パターン(Ir1,Ir2,Ir3)を順次投影したときに、先に投影した基準パターンの情報を下位ビットに割り当て、後で投影した基準パターンの情報を上位ビットに割り当てることにより、“100”というビット長3、すなわち3ビットの情報で表すことができる。   For example, focus on point A shown in FIG. 4B. When the reference pattern Ir1 is projected, a black belt is projected at the point A. The point on which the black belt is projected in this way is represented by “0”. Similarly, when the reference pattern Ir2 is projected, a black belt is projected at the point A. That is, the point A is represented by “0”. When the reference pattern Ir3 is projected, a white band is projected at the point A. The point where the white belt is projected in this way is represented by “1”. Therefore, the coordinates of the point A shown in FIG. 4B are obtained by assigning the information of the previously projected reference pattern to the lower bits when the three reference patterns (Ir1, Ir2, Ir3) are sequentially projected, and the later projected reference pattern. By assigning the pattern information to the upper bits, it is possible to represent the information with a bit length of “100” of 3, that is, 3 bits.

図4Bに示した複数の基準パターン(Ir1,Ir2,Ir3,…)をより細かいパターンまで用意して順次投影することにより、基準パターンが投影された領域の座標を、より長いビット長、すなわち、より高い分解能で特定することができる。例えば、n枚の異なる基準パターンを順次投影したときには、基準パターンが投影された点の座標をnビットで表すことができる。   By preparing and sequentially projecting a plurality of reference patterns (Ir1, Ir2, Ir3,...) Shown in FIG. 4B to finer patterns, the coordinates of the area on which the reference pattern is projected can be set to a longer bit length, that is, It can be specified with higher resolution. For example, when n different reference patterns are sequentially projected, the coordinates of the point on which the reference pattern is projected can be represented by n bits.

次に、具体的な対応点の特定方法について説明する。まず、投影された基準パターン(Ir1,Ir2,Ir3,…)の投影像Ipは、撮像部40(図1)によって撮像された後、観測されたカメラ画像Icの中のどの領域に黒帯が写っており、どの領域に白帯が写っているかが認識される。   Next, a specific method for identifying corresponding points will be described. First, the projected image Ip of the projected reference pattern (Ir1, Ir2, Ir3,...) Is imaged by the imaging unit 40 (FIG. 1), and then a black belt is present in any region in the observed camera image Ic. It is recognized and it is recognized in which area the white belt is reflected.

黒帯と白帯の認識を簡単かつ確実に行うために、本実施例では、図4Bに示した基準パターンIr1を投影した後で、基準パターンIr1の白黒を反転させたパターン(ネガポジ反転パターン)を投影する。すなわち、基準パターンIr1を投影して撮像部40で投影像Ipを撮像した後で、基準パターンIr1のネガポジ反転パターンを投影して撮像部40で投影像Ipを再び撮像する。   In this embodiment, in order to easily and reliably recognize black and white bands, in this embodiment, after projecting the reference pattern Ir1 shown in FIG. 4B, a pattern obtained by inverting the black and white of the reference pattern Ir1 (negative-positive inversion pattern) Project. That is, after projecting the reference pattern Ir1 and capturing the projection image Ip with the imaging unit 40, the negative / positive inversion pattern of the reference pattern Ir1 is projected and the imaging unit 40 captures the projection image Ip again.

このようにして撮像された、ネガポジが反転した2枚の画像の差分演算を行うと、基準パターンIr1の白帯が投影された領域の差分値は正値となる。一方、基準パターンIr1の黒帯が投影された領域の差分値は負値となる。したがって、外部の明るさの変化に影響されることなく、白帯と黒帯が投影された領域を簡単かつ確実に認識することができる。   When the difference calculation is performed on the two images with negative and positive images captured in this manner, the difference value of the region on which the white band of the reference pattern Ir1 is projected becomes a positive value. On the other hand, the difference value of the area where the black belt of the reference pattern Ir1 is projected is a negative value. Therefore, it is possible to easily and reliably recognize the area where the white belt and the black belt are projected without being affected by the change in external brightness.

同様の処理を、異なる複数の基準パターンの各々の投影像に対して繰り返し行うことにより、カメラ画像Icの点(x,y)と同じコード化座標を有する、基準パターン(Ir1,Ir2,Ir3,…)が投影された点(p,q)の座標を、複雑な対応付け演算を行うことなしに、機械的に算出することができる。   By repeating the same process for each projected image of a plurality of different reference patterns, the reference patterns (Ir1, Ir2, Ir3, which have the same coded coordinates as the point (x, y) of the camera image Ic). The coordinates of the point (p, q) on which (...) is projected can be mechanically calculated without performing a complicated association calculation.

なお、説明を簡単にするため、図4Bには帯が縦方向に延びたパターン(縦縞)のみを示したが、実際には帯が横方向に延びたパターン(横縞)も投影して、前記したのと同様に座標の特定を行うことによって、基準パターンの投影像の2次元座標を高い分解能で特定することができる。   For the sake of simplicity, FIG. 4B shows only the pattern in which the band extends in the vertical direction (vertical stripe), but actually projects the pattern in which the band extends in the horizontal direction (horizontal stripe). By specifying the coordinates in the same manner as described above, the two-dimensional coordinates of the projected image of the reference pattern can be specified with high resolution.

このようにして、カメラ画像Icの座標(x,y)と投影像の座標(p,q)との対応関係を明確にすることができる。そして、投影像の座標(p,q)と、情報投影部14(図1)から投影される投影像Ipの元である基準パターンIrの座標(u,v)と、も1対1に対応しているため、カメラ画像Icの座標(x,y)と基準パターンIrの座標(u,v)との対応関係も明確にすることができる。   In this way, the correspondence relationship between the coordinates (x, y) of the camera image Ic and the coordinates (p, q) of the projection image can be clarified. The coordinates (p, q) of the projection image and the coordinates (u, v) of the reference pattern Ir that is the source of the projection image Ip projected from the information projection unit 14 (FIG. 1) have a one-to-one correspondence. Therefore, the correspondence between the coordinates (x, y) of the camera image Ic and the coordinates (u, v) of the reference pattern Ir can also be clarified.

(事前変形パターンの生成方法の説明)
次に、校正の結果を用いて、歪のないヘッドアップディスプレイ(HUD)表示像Iiを得るために、情報投影部14(図1)から投影する画像情報を生成する方法について、図4C(a),図4(b)を用いて説明する。
(Explanation of how to generate pre-deformed patterns)
Next, a method for generating image information to be projected from the information projection unit 14 (FIG. 1) in order to obtain a distortion-free head-up display (HUD) display image Ii using the result of calibration will be described with reference to FIG. ), And will be described with reference to FIG.

この画像情報は、基準パターン・画像情報生成部10(図1)において生成される。その際、校正によって得られた、式1で示される対応マップMcp_xおよびMcp_yが、座標変換テーブルとして利用される。   This image information is generated in the reference pattern / image information generation unit 10 (FIG. 1). At this time, the correspondence maps Mcp_x and Mcp_y obtained by calibration and represented by Expression 1 are used as the coordinate conversion table.

すなわち、対応マップMcp_xおよびMcp_yに記述された座標の対応関係は、基準パターンIrを投影した際に生じる投影像の歪の情報を含んでいるため、これらの対応マップMcp_xおよびMcp_yを用いて座標変換を行うことによって、予め、逆方向の歪を有する(逆方向に歪んだ)画像情報を生成しておくことができる。この逆方向の歪を有する画像情報を、以後、事前変形パターンIdと呼ぶことにする。そして、事前変形パターンIdを情報投影部14(図1)から投影することによって、歪のないHUD表示像Iiを得ることができる。   That is, since the correspondence relationship between the coordinates described in the correspondence maps Mcp_x and Mcp_y includes information on the distortion of the projected image generated when the reference pattern Ir is projected, coordinate conversion is performed using these correspondence maps Mcp_x and Mcp_y. By performing the above, image information having a distortion in the reverse direction (distorted in the reverse direction) can be generated in advance. The image information having the reverse distortion is hereinafter referred to as a pre-deformed pattern Id. Then, by projecting the pre-deformed pattern Id from the information projection unit 14 (FIG. 1), a distortion-free HUD display image Ii can be obtained.

すなわち、HUD表示像Iiの任意の点(x,y)と、点(x,y)と同じ点を表す、事前変形パターンIdの中の点(u,v)との関係は、式2のようになる。
[式2]
That is, the relationship between an arbitrary point (x, y) of the HUD display image Ii and the point (u, v) in the pre-deformed pattern Id representing the same point as the point (x, y) is It becomes like this.
[Formula 2]

ここで、実際に投影されるヘッドアップディスプレイの投影像の大きさと、校正の際に投影された基準パターンIrの投影像Ipの大きさは一般に異なるため、校正で得られた対応マップMcp_xおよびMcp_yは、それぞれ、サイズ調整(リサイズ)を行った上で利用する。なお、対応マップMcp_xおよびMcp_yをリサイズすると、対応マップの隣接画素間で、対応マップの内容に不連続性が生じる虞がある。そのため、リサイズした対応マップに対して平滑化処理(スムージング処理)を施しておくのが望ましい。具体的には、リサイズした対応マップに対して、対象となる画素の値を、その画素および近傍画素の値の重み付き平均値で置換することによって、平滑化処理を行うことができる。   Here, since the size of the projected image of the head-up display actually projected and the size of the projected image Ip of the reference pattern Ir projected at the time of calibration are generally different, the correspondence maps Mcp_x and Mcp_y obtained by the calibration are different. Are used after size adjustment (resizing). Note that when the correspondence maps Mcp_x and Mcp_y are resized, there is a possibility that discontinuity occurs in the content of the correspondence map between adjacent pixels of the correspondence map. For this reason, it is desirable to apply a smoothing process (smoothing process) to the resized correspondence map. Specifically, smoothing processing can be performed on the resized correspondence map by replacing the value of the target pixel with a weighted average value of the values of the pixel and neighboring pixels.

式2におけるMip_xは、対応マップMcp_xに対してリサイズと平滑化を行った対応マップであり、Mip_yは、対応マップMcp_yに対してリサイズと平滑化を行った対応マップである。これらの対応マップMip_xおよびMip_yが、座標変換テーブルとして対応マップ記憶部80(図1)に記憶される。以後、対応マップMip_xおよびMip_yを座標変換テーブルと呼ぶ。図4C(a)は、これらの座標変換テーブルMip_x,Mip_yを用いて生成された事前変形パターンIdの一例である。   In Expression 2, Mip_x is a correspondence map obtained by resizing and smoothing the correspondence map Mcp_x, and Mip_y is a correspondence map obtained by resizing and smoothing the correspondence map Mcp_y. These correspondence maps Mip_x and Mip_y are stored in the correspondence map storage unit 80 (FIG. 1) as a coordinate conversion table. Hereinafter, the correspondence maps Mip_x and Mip_y are referred to as coordinate conversion tables. FIG. 4C (a) is an example of a pre-deformed pattern Id generated using these coordinate conversion tables Mip_x and Mip_y.

なお、図4C(a),図4(b)は、HUD表示像Iiとして車速(40km/h)を表示するための事前変形パターンIdを形成する場合を例にあげて説明したものだが、実際には、40km/h以外の車速、また、車速に限らず、誘導経路,ワーニング等の様々な情報をHUD表示像Iiとしてリアルタイムに生成する必要がある。その際、座標変換テーブルである対応マップMip_xおよびMip_yは、情報の種類に関わらず共通に使用することができる。   FIGS. 4C (a) and 4 (b) are explained by taking as an example the case of forming a pre-deformed pattern Id for displaying the vehicle speed (40 km / h) as the HUD display image Ii. Therefore, it is necessary to generate various information such as a guidance route and a warning in real time as the HUD display image Ii, not only the vehicle speed other than 40 km / h but also the vehicle speed. At this time, the correspondence maps Mip_x and Mip_y, which are coordinate conversion tables, can be used in common regardless of the type of information.

(視点位置に応じた対応マップの生成方法の説明)
運転者50(図1)の体格や着座位置は個人によって異なっているため、図1に示したHUD表示像Iiは様々な位置にある視点52から観測される。視点52の位置が異なると、基準パターンの投影像Ipに生じる歪も異なるため、視点52の位置が移動する都度、移動した視点52の位置における対応マップMcp_xおよびMcp_yを用いて事前変形パターンIdを生成する必要がある。そのためには、予め、複数の異なる位置に撮像部40(図1)を設置して、各設置位置にそれぞれ対応する複数の対応マップMcp_xおよびMcp_yを作成しておく必要がある。
(Explanation of how to generate the correspondence map according to the viewpoint position)
Since the physique and seating position of the driver 50 (FIG. 1) are different depending on the individual, the HUD display image Ii shown in FIG. 1 is observed from the viewpoints 52 at various positions. When the position of the viewpoint 52 is different, the distortion generated in the projected image Ip of the reference pattern is also different. Therefore, each time the position of the viewpoint 52 moves, the correspondence map Mcp_x and Mcp_y at the position of the moved viewpoint 52 is used to generate the pre-deformed pattern Id. Need to be generated. For this purpose, it is necessary to install the imaging units 40 (FIG. 1) at a plurality of different positions and create a plurality of correspondence maps Mcp_x and Mcp_y respectively corresponding to the respective installation positions.

しかしながら、想定される視点位置における対応マップMcp_xおよびMcp_yを予め全て作成しておくことはできないため、本実施例では、必要最小限の複数の設置位置に撮像部40を設置して、各設置位置に対応する対応マップMcp_xおよびMcp_yをそれぞれ作成して、作成された各対応マップMcp_xおよびMcp_yに基づいて、視点52の任意の位置における対応マップMcp_xおよびMcp_yの補間生成を行う。   However, since the correspondence maps Mcp_x and Mcp_y at the assumed viewpoint positions cannot be created in advance, in this embodiment, the imaging units 40 are installed at a plurality of necessary minimum installation positions. Corresponding maps Mcp_x and Mcp_y are generated, and the corresponding maps Mcp_x and Mcp_y at an arbitrary position of the viewpoint 52 are generated based on the generated corresponding maps Mcp_x and Mcp_y.

その際、撮像部40の各設置位置において得られた各対応マップMcp_xおよびMcp_yに対して、前記したようにリサイズと平滑化を行って、撮像部40の各設置位置における座標変換テーブルMip_xおよびMip_yを作成する。そして、撮像部40の各設置位置における座標変換テーブルMip_xおよびMip_yに基づいて、視点52の任意の位置に対応する座標変換の回帰式の係数を求めて、算出された係数を座標変換テーブル生成部90(第2の座標対応関係推定部)に記憶する。詳しくは後述する。   At that time, the corresponding maps Mcp_x and Mcp_y obtained at the respective installation positions of the imaging unit 40 are resized and smoothed as described above, and the coordinate conversion tables Mip_x and Mip_y at the respective installation positions of the imaging unit 40 are obtained. Create Then, based on the coordinate conversion tables Mip_x and Mip_y at each installation position of the imaging unit 40, a coefficient of a regression equation of coordinate conversion corresponding to an arbitrary position of the viewpoint 52 is obtained, and the calculated coefficient is used as a coordinate conversion table generation unit. 90 (second coordinate correspondence estimation unit). Details will be described later.

そして、実際に計測された視点52の位置に対応する回帰式の係数を読み出して座標変換を行い、視点52の位置において歪のないHUD表示像Ii(投影像)が観測されるように予め変形された事前変形パターンIdを生成し、生成された事前変形パターンIdを投影することによって、運転者50の視点52の位置に関わらずに、歪のないHUD表示像Ii(図4C(b))をリアルタイムで表示することができる。   Then, the coefficients of the regression equation corresponding to the actually measured position of the viewpoint 52 are read out, coordinate conversion is performed, and the HUD display image Ii (projection image) without distortion is observed at the position of the viewpoint 52 in advance. By generating the pre-deformed pattern Id and projecting the generated pre-deformed pattern Id, the HUD display image Ii without distortion regardless of the position of the viewpoint 52 of the driver 50 (FIG. 4C (b)) Can be displayed in real time.

(撮像部の設置位置の調整方法の説明)
次に、図5を用いて、校正の中で行う、撮像部40の設置位置の調整方法について説明する。撮像部40の設置位置の調整は、撮像部40で撮像されたカメラ画像Icをモニタしながら行う。その際、設置位置の調整のために、図5に示すように、カメラ画像Icの縦方向中心位置に基準線Ly(第1基準マーカ)を描画しておき、横方向中心位置に基準線Lx(第1基準マーカ)を描画しておく。さらに、図5のE矢視図に示すように、投影像Ipが表示されるスクリーンSの表面には、横方向に延びる(X軸に沿って延びる)基準線Mx(第2基準マーカ)と、縦方向に延びる(Y軸に沿って延びる)基準線My(第2基準マーカ)をHUD投影像として表示する。
(Description of how to adjust the installation position of the imaging unit)
Next, a method for adjusting the installation position of the imaging unit 40 performed during calibration will be described with reference to FIG. The installation position of the imaging unit 40 is adjusted while monitoring the camera image Ic captured by the imaging unit 40. At that time, in order to adjust the installation position, as shown in FIG. 5, a reference line Ly (first reference marker) is drawn at the vertical center position of the camera image Ic, and the reference line Lx is set at the horizontal center position. (First reference marker) is drawn. Further, as shown in FIG. 5E, a reference line Mx (second reference marker) extending in the lateral direction (extending along the X-axis) is formed on the surface of the screen S on which the projection image Ip is displayed. The reference line My (second reference marker) extending in the vertical direction (extending along the Y axis) is displayed as a HUD projection image.

撮像部40は、図5のXY平面上で設置位置を調整するものとする。撮像部40を所定の設置位置(例えば、撮像部40,40a,40bが示す位置)に移動した後、撮像されたカメラ画像(Ic,Ica,Icb)には、それぞれ、スクリーンSに表示した基準線Mx,My(第2基準マーカ)と、カメラ画像Icに直接描画した基準線Lx,Ly(第1基準マーカ)と、がともに写った状態となっている。   The imaging part 40 shall adjust an installation position on XY plane of FIG. After moving the imaging unit 40 to a predetermined installation position (for example, the position indicated by the imaging units 40, 40a, 40b), the captured camera images (Ic, Ica, Icb) are respectively displayed on the screen S. Both the lines Mx and My (second reference marker) and the reference lines Lx and Ly (first reference marker) drawn directly on the camera image Ic are in a state of being reflected.

このとき、図5において、撮像部40,40a,40bの向きを、Y軸に平行な軸の周り、すなわち、図5の矢印Ca,Cb,Ccの向きに回転させると、カメラ画像(Ic,Ica,Icb)上で、基準線Mx,My(第2基準マーカ)の表示位置が、図5の矢印Da,Db,Dcの方向に移動する。そして、撮像部40,40a,40bが、それぞれスクリーンS上の点Rの方向を向いたときに、基準線Mx,Myは、それぞれ、基準線Lx,Ly(第1基準マーカ)と完全に重複した状態となる。   At this time, in FIG. 5, when the orientations of the imaging units 40, 40a, and 40b are rotated around an axis parallel to the Y axis, that is, in the directions of the arrows Ca, Cb, and Cc in FIG. (Ica, Icb), the display positions of the reference lines Mx, My (second reference markers) move in the directions of arrows Da, Db, Dc in FIG. When the imaging units 40, 40a, and 40b face the direction of the point R on the screen S, the reference lines Mx and My completely overlap with the reference lines Lx and Ly (first reference markers), respectively. It will be in the state.

このようにして、基準線Mxと基準線Lx、および基準線Myと基準線Lyがともに重複した状態にあることを確認して、撮像部40,40a,40bの設置位置の調整が完了したものと判断する。   In this way, it is confirmed that the reference line Mx and the reference line Lx and the reference line My and the reference line Ly are both overlapped, and the adjustment of the installation positions of the imaging units 40, 40a, and 40b is completed. Judge.

撮像部40,40a,40bの向きをこのように調整することによって、図5に示すように、設置位置を変更された撮像部40,40a,40bは、常に、基準線Mxと基準線Myの交点である点Rの方向を向いた状態となっている。すなわち、撮像部40,40a,40bの設置位置から撮像部40の向きを一意に特定することができる。   By adjusting the orientations of the imaging units 40, 40a, and 40b in this way, as shown in FIG. 5, the imaging units 40, 40a, and 40b whose installation positions have been changed always have the reference line Mx and the reference line My. It is in a state facing the direction of the point R which is the intersection. That is, the orientation of the imaging unit 40 can be uniquely specified from the installation positions of the imaging units 40, 40a, and 40b.

さらに、撮像部40,40a,40bの向きをこのように調整することによって、基準線Mxと基準線Myの交点である点Rの位置に表示されたHUD表示像Iiを、撮像部40の複数の設置位置から、それぞれ視野の中心で見る状態(注視した状態)を再現することができる。   Further, by adjusting the orientations of the imaging units 40, 40 a, and 40 b in this way, the HUD display image Ii displayed at the position of the point R that is the intersection of the reference line Mx and the reference line My is displayed in the plurality of imaging units 40. It is possible to reproduce the state of viewing at the center of the field of view (the state of gazing) from the installation position.

(撮像部の任意の仮想設置位置における対応マップ(座標変換テーブル)の補間生成方法の説明)
次に、撮像部40の設置位置を変更して得た複数の対応マップMcp_xおよびMcp_yを用いて、仮想撮像部40vを、運転者の視点位置に対応する任意の設置位置(仮想設置位置)に設置した際に、その仮想設置位置における対応マップ(座標変換テーブル)を補間生成する2つの方法について、図6A〜図6Cを用いて説明する。なお、説明を簡単にするため、撮像部40を設置位置wに設置したときに、設置位置wにおける対応マップを、それぞれMcp_x(w),Mcp_y(w)で表すことにする。
(Description of interpolation generation method of correspondence map (coordinate conversion table) at arbitrary virtual installation position of imaging unit)
Next, using a plurality of correspondence maps Mcp_x and Mcp_y obtained by changing the installation position of the imaging unit 40, the virtual imaging unit 40v is set to an arbitrary installation position (virtual installation position) corresponding to the viewpoint position of the driver. Two methods for interpolating and generating a correspondence map (coordinate conversion table) at the virtual installation position when installed will be described with reference to FIGS. 6A to 6C. For simplicity of explanation, when the imaging unit 40 is installed at the installation position w, the correspondence maps at the installation position w are represented by Mcp_x (w) and Mcp_y (w), respectively.

図6Aは、撮像部40を、図5に示したXY平面上の複数の設置位置に移動させて、図6の矢印Fの方向から見た図である。すなわち、撮像部40を、XY平面上の9箇所の位置(1,2,3,4,5,6,7,8,9)にそれぞれ移動させた状態を示している。このとき、撮像部40は、上下の間隔、左右の間隔がそれぞれ、できるだけ等しくなるように設置されるものとする。   6A is a view of the imaging unit 40 as viewed from the direction of the arrow F in FIG. 6 after being moved to a plurality of installation positions on the XY plane shown in FIG. That is, the imaging unit 40 is moved to nine positions (1, 2, 3, 4, 5, 6, 7, 8, 9) on the XY plane. At this time, the imaging unit 40 is installed so that the vertical interval and the horizontal interval are as equal as possible.

図6Aに示した撮像部40,40a,40b,40c,40d,40e,40f,40g,40hを示す丸印は、それぞれ、撮像部が備えるレンズ面を示している。   Circles indicating the imaging units 40, 40a, 40b, 40c, 40d, 40e, 40f, 40g, and 40h illustrated in FIG. 6A indicate lens surfaces provided in the imaging unit, respectively.

図6Bは、XY平面上の9箇所の位置(1〜9)(図6A)にそれぞれ設置された撮像部40,40a〜40hを、撮像部観測カメラ60a(図2)で撮像して、撮像された撮像部40,40a〜40hの位置を、1枚の画像J(x、y)に重畳した状態を示している。   FIG. 6B illustrates the imaging units 40 and 40a to 40h installed at nine positions (1 to 9) (FIG. 6A) on the XY plane, respectively, by the imaging unit observation camera 60a (FIG. 2). The state where the positions of the captured image capturing units 40 and 40a to 40h are superimposed on one image J (x, y) is shown.

図6Bに示すように、撮像部40,40a〜40hは、画像J(x,y)の中の、位置(1’,2’,3’,4’,5’,6’,7’,8’,9’)にそれぞれ観測される。   As shown in FIG. 6B, the imaging units 40, 40a to 40h are arranged at positions (1 ′, 2 ′, 3 ′, 4 ′, 5 ′, 6 ′, 7 ′, 8 'and 9').

ここで、画像J(x、y)において、撮像部が観測される位置(1’〜9’)を、それぞれ、(xc(1),yc(1)),(xc(2),yc(2)),…,(xc(9),yc(9))とする。   Here, in the image J (x, y), positions (1 ′ to 9 ′) at which the imaging unit is observed are respectively (xc (1), yc (1)), (xc (2), yc ( 2)), ..., (xc (9), yc (9)).

撮像部40,40a〜40hが観測される位置(xc(1),yc(1)),(xc(2),yc(2)),…,(xc(9),yc(9))は、画像J(x、y)の中から、撮像部40,40a〜40h(図6A)のレンズの中心位置を検出することによって求めることができる。レンズは円形領域として観測されるため、レンズの中心位置は、例えば、一般化ハフ変換を用いて求めることができる。   The positions (xc (1), yc (1)), (xc (2), yc (2)), ..., (xc (9), yc (9)) where the imaging units 40, 40a to 40h are observed are From the image J (x, y), it can be obtained by detecting the center positions of the lenses of the imaging units 40, 40a to 40h (FIG. 6A). Since the lens is observed as a circular region, the center position of the lens can be obtained using, for example, a generalized Hough transform.

一般化ハフ変換は、画像の中から特定の形状を検出する際によく使われる画像認識手法である。円形領域を検出する際には、例えば、画像J(x,y)の中からエッジ構成点を検出して、検出されたエッジ構成点におけるエッジの法線方向を求め、エッジ構成点から法線方向に沿って、検出する円の半径だけ離れた位置にある点を円の中心位置と考えて、用意されたハフ空間の対応する画素の画素値をインクリメントする。同様の処理を全てのエッジ構成点に対して行ったときに、突出した画素値を有する点を、円の中心位置であるとして検出することができる。本実施例の場合、使用する撮像部40に装着されたレンズの径は予めわかっているため、撮像部観測カメラ60a(図2)で観測されるレンズの径を予測することができる。すなわち、検出すべき円の半径は予め予測することができる。   Generalized Hough transform is an image recognition technique often used when detecting a specific shape from an image. When detecting a circular region, for example, an edge composing point is detected from the image J (x, y), a normal direction of the edge at the detected edge composing point is obtained, and a normal line is obtained from the edge composing point. A point located along the direction by a radius of the circle to be detected is considered as the center position of the circle, and the pixel value of the corresponding pixel in the prepared Hough space is incremented. When the same processing is performed on all edge constituent points, a point having a protruding pixel value can be detected as being the center position of the circle. In the case of the present embodiment, since the diameter of the lens mounted on the imaging unit 40 to be used is known in advance, the diameter of the lens observed by the imaging unit observation camera 60a (FIG. 2) can be predicted. That is, the radius of the circle to be detected can be predicted in advance.

次に、任意の視点位置における座標変換テーブルを補間生成する第1の方法について説明する。   Next, a first method for interpolating a coordinate conversion table at an arbitrary viewpoint position will be described.

図6Bにおいて、仮想撮像部40vが視点位置H(xe,ye)にあるとき、この視点位置H(xe,ye)における座標変換テーブルMip_x(xe,ye)およびMip_y(xe,ye)は、それぞれ、図6Bにおける各撮像部の位置(1’〜9’)における座標変換テーブル(対応マップMcp_xおよびMcp_yに対して、それぞれリサイズと平滑化を行ったもの)を線形補間したものであると近似できる。すなわち、式3,式4で表される1次回帰式によって求めることができる。
[式3]
[式4]
In FIG. 6B, when the virtual imaging unit 40v is at the viewpoint position H (xe, ye), the coordinate conversion tables Mip_x (xe, ye) and Mip_y (xe, ye) at the viewpoint position H (xe, ye) are respectively 6B, it can be approximated as a result of linear interpolation of the coordinate conversion table (resizing and smoothing each of the correspondence maps Mcp_x and Mcp_y) at the positions (1 ′ to 9 ′) of the respective imaging units in FIG. 6B. . That is, it can be obtained by the linear regression equation expressed by Equation 3 and Equation 4.
[Formula 3]
[Formula 4]

式3のax(x,y),bx(x,y),cx(x,y)、および式4のay(x,y),by(x,y),cy(x,y)は、それぞれ回帰係数であり、以下に示す式5,式6によってそれぞれ求めることができる。
[式5]
[式6]
Ax (x, y), bx (x, y), cx (x, y) in Equation 3 and ay (x, y), by (x, y), cy (x, y) in Equation 4 are Each is a regression coefficient, and can be obtained by Equations 5 and 6 below.
[Formula 5]
[Formula 6]

式5,式6は、それぞれ、撮像部40の複数の設置位置における対応マップを画素毎に平面近似、すなわち、対応マップを画素毎に線形補間していることに相当する。そして、これらの回帰係数(ax(x,y),bx(x,y),cx(x,y),ay(x,y),by(x,y),cy(x,y))に基づいて、任意の視点位置H(xe,ye)における座標変換テーブルMip_x(xe,ye)およびMip_y(xe,ye)を求めることができる。このとき、算出された回帰係数(ax(x,y),bx(x,y),cx(x,y),ay(x,y),by(x,y),cy(x,y))は、座標変換テーブル生成部90(第2の座標対応関係推定部)に記憶され、必要に応じて読み出されて座標変換を行う。   Equations 5 and 6 respectively correspond to plane approximation of the corresponding map at a plurality of installation positions of the imaging unit 40 for each pixel, that is, linear interpolation of the corresponding map for each pixel. These regression coefficients (ax (x, y), bx (x, y), cx (x, y), ay (x, y), by (x, y), cy (x, y)) Based on this, the coordinate conversion tables Mip_x (xe, ye) and Mip_y (xe, ye) at an arbitrary viewpoint position H (xe, ye) can be obtained. At this time, the calculated regression coefficients (ax (x, y), bx (x, y), cx (x, y), ay (x, y), by (x, y), cy (x, y) ) Is stored in the coordinate conversion table generation unit 90 (second coordinate correspondence relationship estimation unit) and is read as necessary to perform coordinate conversion.

次に、任意の視点位置における座標変換テーブルMip_xおよびMip_yを補間生成する第2の方法について説明する。   Next, a second method for interpolating and generating the coordinate conversion tables Mip_x and Mip_y at an arbitrary viewpoint position will be described.

図6Cは、仮想撮像部40vが設置された任意の視点位置H(xe,ye)における座標変換テーブルMip_x(xe,ye)およびMip_y(xe,ye)を補間生成する第2の補間生成方法について説明する図である。   FIG. 6C shows a second interpolation generation method for interpolating the coordinate conversion tables Mip_x (xe, ye) and Mip_y (xe, ye) at an arbitrary viewpoint position H (xe, ye) where the virtual imaging unit 40v is installed. It is a figure explaining.

図6Cにおいて、任意の視点位置H(xe,ye)における座標変換テーブルは、撮像部の全ての位置(1’〜9’)における座標変換テーブルを用いることなく、視点位置H(xe,ye)の周囲近傍にある撮像部の位置における座標変換テーブルのみを用いて補間生成することができる。   In FIG. 6C, the coordinate conversion table at an arbitrary viewpoint position H (xe, ye) is the viewpoint position H (xe, ye) without using the coordinate conversion tables at all positions (1 ′ to 9 ′) of the imaging unit. It is possible to generate an interpolation using only the coordinate conversion table at the position of the imaging unit in the vicinity of.

すなわち、アイレンジ内の任意の視点位置H(xe,ye)における対応マップは、アイレンジ内に複数設置した撮像部の位置(1’〜9’)の水平方向座標の最小値と最大値、および垂直方向座標の最小値と最大値をそれぞれ頂点とする長方形領域Rrを、水平方向、垂直方向にそれぞれ予め決められた分割数に分割して複数の長方形状の部分領域(Pr1,Pr2,Pr3,Pr4)を形成し、このようにして形成された部分領域(Pr1,Pr2,Pr3,Pr4)のうち、視点位置H(xe,ye)がどの部分領域の内部に属しているかに応じて補間生成することができる。例えば、視点位置H(xe,ye)が属する部分領域Pr1の中心位置G1から所定距離(例えば半径d)以内、すなわち円形領域T1の内部に存在する各撮像部の位置(1’,2’,4’,5’)における座標変換テーブルを用いて補間生成することができる。このように、任意の視点位置H(xe,ye)における対応マップを、視点位置H(xe,ye)の区分線形関数で表すことができる。このとき、部分領域(Pr1,Pr2,Pr3,Pr4)毎に、前述した回帰係数(ax(x,y),bx(x,y),cx(x,y),ay(x,y),by(x,y),cy(x,y))が算出されて、それぞれ、座標変換テーブル生成部90(第2の座標対応関係推定部)に記憶される。そして、実際に検出された運転者50の視点位置H(xe,ye)に応じた回帰係数が読み出されて座標変換が行われる。なお、円形領域T1の内部に撮像部が2か所以下しか存在しないとき、すなわち、十分な数の撮像部が存在しないときは、部分領域の中心位置からの距離が近い順に最低3か所の撮像部の位置を選択するようにすればよい。   That is, the correspondence map at an arbitrary viewpoint position H (xe, ye) in the eye range is a minimum value and a maximum value of the horizontal coordinates of the positions (1 ′ to 9 ′) of the imaging units installed in the eye range. The rectangular region Rr having the minimum and maximum values of the vertical coordinate as vertices is divided into a predetermined number of divisions in the horizontal direction and the vertical direction, respectively, so that a plurality of rectangular partial regions (Pr1, Pr2, Pr3) are obtained. , Pr4), and interpolation is performed according to which partial region the viewpoint position H (xe, ye) belongs to among the partial regions (Pr1, Pr2, Pr3, Pr4) thus formed. Can be generated. For example, the positions (1 ′, 2 ′,. Interpolation can be performed using the coordinate conversion table in 4 ′, 5 ′). Thus, the correspondence map at an arbitrary viewpoint position H (xe, ye) can be represented by a piecewise linear function of the viewpoint position H (xe, ye). At this time, the regression coefficients (ax (x, y), bx (x, y), cx (x, y), ay (x, y), aforesaid for each partial region (Pr1, Pr2, Pr3, Pr4). by (x, y), cy (x, y)) are calculated and stored in the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit), respectively. Then, a regression coefficient corresponding to the detected viewpoint position H (xe, ye) of the driver 50 is read out and coordinate conversion is performed. When there are only two or less imaging units in the circular region T1, that is, when there are not a sufficient number of imaging units, there are at least three locations in order of increasing distance from the center position of the partial region. The position of the imaging unit may be selected.

任意の視点位置における座標変換テーブルの補間生成は、以上説明した2つの方法のいずれを用いて行ってもよいが、撮像部の設置位置を変更した際に得られる、撮像部の位置を表す画像の歪の変化が大きいとき(図6Bに相当する画像において、場所によって隣接する撮像部の位置関係の歪の差が大きいとき)には、撮像部の各設置位置において得られた座標変換テーブルの画素毎に平面を当てはめると、例えば、画像の歪の変化が大きいときには、線形補間では誤差が大きくなる虞があるため、第2の方法、すなわち、視点位置の区分線形関数を用いて補間生成するのが望ましい。   Interpolation generation of the coordinate conversion table at an arbitrary viewpoint position may be performed using either of the two methods described above, but an image representing the position of the imaging unit obtained when the installation position of the imaging unit is changed Of the coordinate conversion table obtained at each installation position of the imaging unit when the change in distortion of the imaging unit is large (in the image corresponding to FIG. 6B, when the difference in distortion of the positional relationship between adjacent imaging units is large depending on the location). If a plane is applied to each pixel, for example, when there is a large change in image distortion, the error may increase in linear interpolation. Therefore, the interpolation is generated using the second method, that is, the piecewise linear function of the viewpoint position. Is desirable.

(実施例1における処理の流れの説明)
実施例1における処理の全体の流れについて、図7A,図7B,図8を用いて説明する。図7A,図7Bは校正を行う際の一連の処理の流れを示すフローチャートである。また、図8は歪のないHUD表示像Iiを投影する一連の処理の流れを示すフローチャートである。まず、校正を行う際の一連の流れについて、図7A,図7Bのフローチャート、および図2の機能ブロック図を用いて説明する。
(Description of process flow in embodiment 1)
The overall flow of processing in the first embodiment will be described with reference to FIGS. 7A, 7B, and 8. FIG. 7A and 7B are flowcharts showing a flow of a series of processing when calibration is performed. FIG. 8 is a flowchart showing a flow of a series of processes for projecting a distortion-free HUD display image Ii. First, a series of flow at the time of calibration will be described with reference to the flowcharts of FIGS. 7A and 7B and the functional block diagram of FIG.

(ステップS10)撮像部40を、基準パターンの投影像Ipが投影される方向に向けて設置する。   (Step S10) The imaging unit 40 is installed in the direction in which the projected image Ip of the reference pattern is projected.

(ステップS12)基準パターンの投影像Ipが結像する位置に置いたスクリーンS上に、図5に示した基準線Mx,My(第2基準マーカ)を設置する。   (Step S12) The reference lines Mx and My (second reference markers) shown in FIG. 5 are placed on the screen S placed at the position where the projected image Ip of the reference pattern is formed.

(ステップS14)第2基準マーカMx,Myがカメラ画像Icの所定の位置に写るように、撮像部40の向きを調整する。   (Step S14) The orientation of the imaging unit 40 is adjusted so that the second reference markers Mx and My are captured at predetermined positions in the camera image Ic.

(ステップS18)撮像部設置位置検出部64aによって、撮像部40の位置を検出する。   (Step S18) The position of the imaging unit 40 is detected by the imaging unit installation position detection unit 64a.

(ステップS20)基準パターン生成部10aにおいてグレイコード(ポジ)を生成して、情報投影部14からウインドシールド16に向けて投影する。   (Step S20) The reference pattern generation unit 10a generates a gray code (positive) and projects it from the information projection unit 14 toward the windshield 16.

(ステップS22)投影されたグレイコードの投影像を撮像部40で撮像する。   (Step S <b> 22) The projected image of the gray code is captured by the imaging unit 40.

(ステップS24)基準パターン生成部10aにおいてグレイコード(ネガ)を生成して、情報投影部14からウインドシールド16に向けて投影する。   (Step S24) The reference pattern generation unit 10a generates a gray code (negative) and projects it from the information projection unit 14 toward the windshield 16.

(ステップS26)投影されたグレイコードの投影像を撮像部40で撮像する。   (Step S <b> 26) The projected image of the gray code is captured by the imaging unit 40.

(ステップS28)撮像されたグレイコード(ポジ)の投影像を2値化処理する。その際、撮像されたグレイコード(ネガ)の投影像を2値化のしきい値とする。   (Step S28) The imaged gray code (positive) projection image is binarized. At that time, the projected image of the gray code (negative) taken as a threshold value for binarization.

(ステップS30)2値化処理の結果を第1の座標対応関係算出部70に記憶しておく。   (Step S30) The result of the binarization process is stored in the first coordinate correspondence calculation unit 70.

(ステップS32)全てのグレイコード(ポジ)を投影したか否かを判定する。全てのグレイコードを投影したときはステップS34に進み、それ以外のときはステップS20に戻って、異なるグレイコード(ポジ)の投影を行う。   (Step S32) It is determined whether or not all gray codes (positive) have been projected. When all the gray codes have been projected, the process proceeds to step S34. Otherwise, the process returns to step S20 to project a different gray code (positive).

(ステップS34)第1の座標対応関係算出部70において、対応マップMcp_x,Mcp_yを作成する。作成された対応マップMcp_x,Mcp_yは、必要に応じてリサイズ、平滑化処理を施されて、対応マップ(座標変換テーブル)Mip_x,Mip_yとされる。そして、生成された対応マップMip_x,Mip_yを対応マップ記憶部80に記憶する。   (Step S34) In the first coordinate correspondence calculation unit 70, correspondence maps Mcp_x and Mcp_y are created. The created correspondence maps Mcp_x and Mcp_y are subjected to resizing and smoothing processing as necessary, and become correspondence maps (coordinate conversion tables) Mip_x and Mip_y. Then, the generated correspondence map Mip_x, Mip_y is stored in the correspondence map storage unit 80.

(ステップS38)撮像部40を全ての設置位置に移動させたたか否かを判定する。全ての設置位置に移動させたときはステップS40に進み、それ以外のときは、ステップS10に戻って、撮像部40を別の設置位置に移動させる。   (Step S38) It is determined whether the imaging unit 40 has been moved to all installation positions. When it is moved to all the installation positions, the process proceeds to step S40. Otherwise, the process returns to step S10, and the imaging unit 40 is moved to another installation position.

(ステップS40)撮像部40の各設置位置において得られた対応マップMip_x,Mip_yに基づいて、任意の視点の位置における対応マップを補間生成するための座標変換の回帰式を算出する。   (Step S40) Based on the correspondence maps Mip_x and Mip_y obtained at the respective installation positions of the imaging unit 40, a regression equation for coordinate conversion for generating a correspondence map at an arbitrary viewpoint position is calculated.

(ステップS42)算出された回帰式の係数を座標変換テーブル生成部90(第2の座標対応関係推定部)に記憶して、図7A,図7Bの処理を終了する。   (Step S42) The calculated regression equation coefficients are stored in the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit), and the processing of FIGS. 7A and 7B is terminated.

次に、歪のないHUD表示像Iiを投影する一連の処理の流れについて、図8のフローチャート、および図3の機能ブロック図を用いて説明する。   Next, a flow of a series of processes for projecting a distortion-free HUD display image Ii will be described with reference to the flowchart of FIG. 8 and the functional block diagram of FIG.

(ステップS80)視点位置検出部64bによって、視点52の位置を検出する。   (Step S80) The position of the viewpoint 52 is detected by the viewpoint position detector 64b.

(ステップS84)画像情報生成部10bが、座標変換テーブル生成部90から、検出された視点52の位置における座標変換の回帰式の係数を読み出して、読み出した係数に基づいて、HUD表示像Iiを生成するために投影する画像情報を座標変換して、事前変形パターンIdを作成する。   (Step S84) The image information generation unit 10b reads the coefficient of the regression equation of the coordinate conversion at the detected position of the viewpoint 52 from the coordinate conversion table generation unit 90, and based on the read coefficient, the HUD display image Ii Image information to be projected for generation is subjected to coordinate transformation to create a pre-deformed pattern Id.

(ステップS86)作成した事前変形パターンIdを情報投影部14から投影してHUD表示像Iiを生成する。   (Step S86) The created preliminary deformation pattern Id is projected from the information projection unit 14 to generate the HUD display image Ii.

(ステップS88)HUD表示像IiをOFFにする(消去する)条件を満たしているか否かを判定する。条件を満たすときはHUD表示を消去して処理を終了する。それ以外のときは、ステップS80に戻る。   (Step S88) It is determined whether a condition for turning off (erasing) the HUD display image Ii is satisfied. When the condition is satisfied, the HUD display is erased and the process is terminated. Otherwise, the process returns to step S80.

以上説明したように、実施例1に係るヘッドアップディスプレイの歪補正装置100において行われるヘッドアップディスプレイの歪補正方法によると、運転者の視点52に相当する位置に前方へ向けて設置した撮像部40を、所定の方向に向くように調整した後、撮像部40の設置位置を検出する。運転者の前方視界の中に基準パターンIrの投影像Ipを生成して、撮像部40でこの投影像Ipを撮像し、基準パターンIrを構成する点の座標と、撮像された画像の中でその点と同じ点を表す座標と、の間の第1の座標対応関係を算出する。同様の処理を、撮像部40の設置位置を変更して複数回繰り返した後、得られた第1の座標対応関係をそれぞれ記憶する。そして、検出された運転者の視点52の位置において得られると考えられる、基準パターンIrを構成する点の座標と、視点52の位置においた撮像されると予測される基準パターンIrの投影像Ipの対応する点の座標と、の間の第2の座標対応関係を推定して、視点の位置(x,y)から、投影像Ipを歪なく観測できるように基準パターンIrを変形させる座標変換テーブルMip_x(x,y)およびMip_y(x,y)を生成する。そして、座標変換テーブルMip_x(x,y)およびMip_y(x,y)に基づいて、予め変形された画像情報を生成し、この画像情報を投影してHUD表示像Iiを生成するため、座標変換テーブルの画素毎の値であるMip_x(x,y)およびMip_y(x,y)が、視点52の位置(x,y)のみの一次式で表されて、視点位置に関わらず歪のないHUD表示像Iiを、少ない計算量で効率よく生成することができる。   As described above, according to the head-up display distortion correction method performed in the head-up display distortion correction apparatus 100 according to the first embodiment, the imaging unit installed forward at a position corresponding to the viewpoint 52 of the driver. After adjusting 40 to face in a predetermined direction, the installation position of the imaging unit 40 is detected. A projected image Ip of the reference pattern Ir is generated in the driver's forward field of view, and the projected image Ip is captured by the imaging unit 40. Among the captured images, the coordinates of the points constituting the reference pattern Ir A first coordinate correspondence between the coordinates representing the same point as that point is calculated. The same processing is repeated a plurality of times by changing the installation position of the imaging unit 40, and then the obtained first coordinate correspondence relationship is stored. Then, the coordinates of the points constituting the reference pattern Ir that are considered to be obtained at the detected position of the viewpoint 52 of the driver, and the projected image Ip of the reference pattern Ir that is predicted to be imaged at the position of the viewpoint 52 are obtained. A coordinate transformation that deforms the reference pattern Ir so that the projected image Ip can be observed without distortion from the viewpoint position (x, y) by estimating the second coordinate correspondence between the coordinates of the corresponding points of The tables Mip_x (x, y) and Mip_y (x, y) are generated. Then, based on the coordinate conversion tables Mip_x (x, y) and Mip_y (x, y), the image information deformed in advance is generated, and this image information is projected to generate the HUD display image Ii. Mip_x (x, y) and Mip_y (x, y), which are values for each pixel in the table, are expressed by a linear expression only for the position (x, y) of the viewpoint 52, and there is no distortion regardless of the viewpoint position. The display image Ii can be efficiently generated with a small amount of calculation.

さらに、アルゴリズムが簡易であるため、実装が容易であり、ハードウェア化に向いている。また、ウインドシールド16の形状や光学系パラメータの事前測定が不要であるため、様々な要因によって発生する歪を一括して補正することができる。   Furthermore, since the algorithm is simple, it is easy to implement and is suitable for hardware. Further, since the shape of the windshield 16 and the optical system parameters do not need to be measured in advance, distortion caused by various factors can be corrected collectively.

そして、撮像部40を決まった位置に設置する必要がないため、校正を行う際に作業習熟の必要がなく、習熟者でなくても容易に校正を行うことができる。さらに、校正に用いる撮像部40の検出と、実際にHUD表示像Iiを表示する際の視点52の検出を同じ撮像部・視点観測カメラ60で行うことができるため、校正時の撮像部40の位置と実際の視点52の位置との間で相互に座標変換を行う必要がない。また、レンズの歪などの影響が相殺されるため、少ない手間で校正を容易に行うことができる。   And since it is not necessary to install the image pick-up part 40 in a fixed position, it is not necessary to learn work when performing calibration, and calibration can be performed easily even if it is not an expert. Furthermore, since the detection of the imaging unit 40 used for calibration and the detection of the viewpoint 52 when the HUD display image Ii is actually displayed can be performed by the same imaging unit / viewpoint observation camera 60, the imaging unit 40 at the time of calibration can be detected. There is no need to perform coordinate conversion between the position and the actual position of the viewpoint 52. In addition, since effects such as lens distortion are offset, calibration can be easily performed with little effort.

また、実施例1に係るヘッドアップディスプレイの歪補正装置100において行われるヘッドアップディスプレイの歪補正方法によると、観測方向調整プロセスは、撮像部40で撮像された画像の中で、撮像部40に設置されて、撮像部40の移動によらずその位置が固定された第1基準マーカ(Lx,Ly)の像と、運転者の前方視界の所定位置に表示された第2基準マーカ(Mx,My)の像と、の位置を合致させることによって行うため、撮像部40の姿勢の推定が不要となって、校正を行う際の計算量を軽減することができる。   Further, according to the head-up display distortion correction method performed in the head-up display distortion correction apparatus 100 according to the first embodiment, the observation direction adjustment process is performed by the imaging unit 40 among the images captured by the imaging unit 40. The image of the first reference marker (Lx, Ly) that is installed and fixed at the position regardless of the movement of the imaging unit 40, and the second reference marker (Mx, Lyr) displayed at a predetermined position in the driver's front field of view. Since it is performed by matching the position of the image My) with the position of the image, estimation of the posture of the imaging unit 40 is not necessary, and the amount of calculation at the time of calibration can be reduced.

そして、実施例1に係るヘッドアップディスプレイの歪補正装置100において行われるヘッドアップディスプレイの歪補正方法によると、撮像部40の複数の設置位置の水平方向座標の最小値と最大値、および垂直方向座標の最小値と最大値をそれぞれ頂点とする長方形領域Rrを、水平方向、垂直方向にそれぞれ予め決められた分割数に分割して複数の部分領域(Pr1,Pr2,Pr3,Pr4)を形成し、形成された複数の部分領域(Pr1,Pr2,Pr3,Pr4)の中で、運転者の視点位置H(xe,ye)が属する部分領域Pr1の中心位置G1から所定距離d内にある撮像部40の各設置位置における第1の座標対応関係に基づいて、視点位置H(xe,ye)における第2の座標対応関係を推定するため、撮像部40の設置位置を変更した際に得られる、撮像部40の複数の設置位置を表す画像の歪の変化が大きいときであっても、精度の高い歪補正を行うことができる。   According to the head-up display distortion correction method performed in the head-up display distortion correction apparatus 100 according to the first embodiment, the minimum and maximum values of the horizontal coordinates of the plurality of installation positions of the imaging unit 40 and the vertical direction A rectangular region Rr having the minimum and maximum coordinate values as vertices is divided into a predetermined number of divisions in the horizontal and vertical directions to form a plurality of partial regions (Pr1, Pr2, Pr3, Pr4). Among the plurality of formed partial areas (Pr1, Pr2, Pr3, Pr4), the imaging unit located within a predetermined distance d from the center position G1 of the partial area Pr1 to which the driver's viewpoint position H (xe, ye) belongs In order to estimate the second coordinate correspondence at the viewpoint position H (xe, ye) based on the first coordinate correspondence at each of the 40 installation positions, Obtained when changing the location positions, even when the change of the distortion of an image representing a plurality of installation position of the imaging unit 40 is large, it is possible to perform highly accurate distortion correction.

さらに、実施例1に係るヘッドアップディスプレイの歪補正装置100において行われるヘッドアップディスプレイの歪補正方法によると、第2の座標対応関係は視点52の位置(x,y)の一次式で表されるため、校正を行う際の計算量を減らすことができる。さらに、第2の座標対応関係を求める際に画素毎の対応付けを行っているため、歪のない滑らかな投影像を得ることができる。   Furthermore, according to the head-up display distortion correction method performed in the head-up display distortion correction apparatus 100 according to the first embodiment, the second coordinate correspondence is expressed by a linear expression of the position (x, y) of the viewpoint 52. Therefore, the amount of calculation when performing calibration can be reduced. Furthermore, since the association for each pixel is performed when obtaining the second coordinate correspondence, a smooth projected image without distortion can be obtained.

また、実施例1に係るヘッドアップディスプレイの歪補正方法を用いたヘッドアップディスプレイの歪補正装置100によると、運転者の視点52に相当する位置に、所定の位置を向くように設置された撮像部40の設置位置が、撮像部設置位置検出部64aによって検出されて、情報投影部14が運転者の前方視界の中に基準パターンIrの投影像Ipを投影して、撮像部40でこの投影像Ipを撮像し、第1の座標対応関係算出部70が、基準パターンIrを構成する点の座標と、撮像された画像の中でその点と同じ点を表す座標と、の間の第1の座標対応関係を算出した後、撮像部40の設置位置を変更して、各設置位置で第1の座標対応関係を算出して、対応マップ記憶部80(第1の座標対応関係記憶部)に記憶する。   In addition, according to the head-up display distortion correction apparatus 100 using the head-up display distortion correction method according to the first embodiment, an image is installed at a position corresponding to the viewpoint 52 of the driver so as to face a predetermined position. The installation position of the unit 40 is detected by the imaging unit installation position detection unit 64a, and the information projection unit 14 projects the projection image Ip of the reference pattern Ir into the driver's front field of view. The first coordinate correspondence calculating unit 70 captures the image Ip, and the first coordinate correspondence calculation unit 70 includes a first coordinate between the coordinates of the points that form the reference pattern Ir and the coordinates that represent the same point in the captured image. After calculating the coordinate correspondence, the installation position of the imaging unit 40 is changed, the first coordinate correspondence is calculated at each installation position, and the correspondence map storage unit 80 (first coordinate correspondence storage unit) To remember.

そして、座標変換テーブル生成部90(第2の座標対応関係推定部)が、撮像部40の複数の設置位置における各第1の座標対応関係に基づいて、視点52の任意の位置における座標変換の回帰式の係数を補間生成して記憶する。   Then, the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit) performs coordinate conversion at an arbitrary position of the viewpoint 52 based on the first coordinate correspondences at the plurality of installation positions of the imaging unit 40. Interpolate and store regression coefficient coefficients.

次に、画像情報生成部10bが、座標変換テーブル生成部90(第2の座標対応関係推定部)に記憶された座標変換の回帰式の係数の中から、視点52の位置(x,y)に応じた回帰式の係数を参照して、予め変形された画像情報(事前変形パターンId)を生成し、この事前変形パターンIdを投影してHUD表示像Iiを生成するため、座標変換テーブルの画素毎の値Mip_x(x,y)およびMip_y(x,y)が、視点52の位置(x,y)のみの一次式で表されて、視点位置に関わらず歪のないHUD表示像Iiを、少ない計算量で効率よく生成することができる。   Next, the image information generation unit 10b determines the position (x, y) of the viewpoint 52 from the coefficients of the regression equation for coordinate conversion stored in the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit). In order to generate image information (preliminarily deformed pattern Id) that has been deformed in advance with reference to the coefficient of the regression equation according to the above, and to generate the HUD display image Ii by projecting this prior deformed pattern Id, The values Mip_x (x, y) and Mip_y (x, y) for each pixel are expressed by a linear expression only for the position (x, y) of the viewpoint 52, and a distortion-free HUD display image Ii is obtained regardless of the viewpoint position. It can be generated efficiently with a small amount of calculation.

そして、実施例1に係るヘッドアップディスプレイの歪補正方法を用いたヘッドアップディスプレイの歪補正装置100によると、第1の座標対応関係算出部70は、撮像部40で撮像された画像の中で、撮像部40に設置されて、撮像部40の移動によらずその位置が固定された第1基準マーカ(Lx,Ly)の像と、運転者の前方視界の所定位置に表示された第2基準マーカ(Mx,My)の像と、の位置を合致させた状態で第1の座標対応関係を算出するため、テクスチャパターンやマーカ等を設置する必要がなく、校正を行う際の手間を減らすことができる。   Then, according to the head-up display distortion correction apparatus 100 using the head-up display distortion correction method according to the first embodiment, the first coordinate correspondence calculation unit 70 includes the image captured by the imaging unit 40. An image of the first reference marker (Lx, Ly) that is installed in the imaging unit 40 and whose position is fixed regardless of the movement of the imaging unit 40 and a second position displayed at a predetermined position in the driver's front field of view. Since the first coordinate correspondence is calculated in a state where the position of the image of the reference marker (Mx, My) coincides with that of the reference marker (Mx, My), it is not necessary to install a texture pattern, a marker, or the like, and the labor for calibration is reduced. be able to.

さらに、実施例1に係るヘッドアップディスプレイの歪補正方法を用いたヘッドアップディスプレイの歪補正装置100によると、座標変換テーブル生成部90(第2の座標対応関係推定部)は、撮像部40の複数の設置位置(1’〜9’)の水平方向座標の最小値と最大値、および垂直方向座標の最小値と最大値をそれぞれ頂点とする長方形領域Rrを、水平方向、垂直方向にそれぞれ予め決められた分割数に分割して複数の部分領域(Pr1,Pr2,Pr3,Pr4)を形成し、形成された複数の部分領域(Pr1,Pr2,Pr3,Pr4)の中で、運転者の視点位置H(xe,ye)が属する部分領域Pr1の中心位置G1から所定距離d内にある撮像部40の各設置位置における第1の座標対応関係に基づいて、視点位置H(xe,ye)における第2の座標対応関係を推定するため、撮像部40の設置位置を変更した際に得られる、撮像部40の複数の設置位置を表す画像の歪の変化が大きいときであっても、精度の高い歪補正を行うことができる。   Furthermore, according to the head-up display distortion correction apparatus 100 using the head-up display distortion correction method according to the first embodiment, the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit) includes the imaging unit 40. A rectangular area Rr having the minimum and maximum horizontal coordinate values and the minimum and maximum vertical coordinate values at a plurality of installation positions (1 ′ to 9 ′) as vertices in advance in the horizontal and vertical directions in advance. A plurality of partial regions (Pr1, Pr2, Pr3, Pr4) are formed by dividing into a predetermined number of divisions, and the driver's viewpoint among the formed partial regions (Pr1, Pr2, Pr3, Pr4) Based on the first coordinate correspondence at each installation position of the imaging unit 40 within the predetermined distance d from the center position G1 of the partial region Pr1 to which the position H (xe, ye) belongs, the viewpoint position H (x , Yes) when the change in the distortion of the image representing the plurality of installation positions of the imaging unit 40 obtained when the installation position of the imaging unit 40 is changed in order to estimate the second coordinate correspondence relationship. However, highly accurate distortion correction can be performed.

また、実施例1に係るヘッドアップディスプレイの歪補正方法を用いたヘッドアップディスプレイの歪補正装置100によると、座標変換テーブル生成部90(第2の座標対応関係推定部)は、第2の座標対応関係を視点52の位置(x,y)のみの一次式で表すため、HUD表示像を少ない計算量で効率よく生成することができる。さらに、第2の座標対応関係を求める際に画素毎の対応付けを行っているため、歪のない滑らかな投影像を得ることができる。   In addition, according to the head-up display distortion correction apparatus 100 using the head-up display distortion correction method according to the first embodiment, the coordinate conversion table generation unit 90 (second coordinate correspondence estimation unit) includes the second coordinates. Since the correspondence relationship is expressed by a linear expression only for the position (x, y) of the viewpoint 52, the HUD display image can be efficiently generated with a small amount of calculation. Furthermore, since the association for each pixel is performed when obtaining the second coordinate correspondence, a smooth projected image without distortion can be obtained.

なお、前記した実施例1では、十字線状に形成された第1基準マーカLx,Lyと第2基準マーカMx,Myが一致するように撮像部40の方向を調整したが、第1基準マーカLx,Lyと第2基準マーカMx,Myの形状は、十字線に限定されるものではない。すなわち、撮像部40を所定の向きに合わせることができるような形状であれば、別の形状でも構わない。   In the first embodiment, the direction of the imaging unit 40 is adjusted so that the first reference markers Lx, Ly and the second reference markers Mx, My, which are formed in a cross shape, coincide with each other. The shapes of Lx and Ly and the second reference markers Mx and My are not limited to crosshairs. That is, another shape may be used as long as the imaging unit 40 can be aligned in a predetermined direction.

また、前記した実施例1では、任意の視点位置における座標変換テーブルを予測する際に、撮像部40を9箇所に移動させて、部分領域を4個形成する構成としたが、撮像部40の移動箇所数および生成する部分領域数はこれらの数値に限定されるものではない。すなわち、より多くの位置に撮像部40を移動させて校正を行い、なおかつ部分領域数を増やしてもよく、このように部分領域数を増やすことによって、より滑らかな近似が可能となる。また、ある部分領域で用いた撮像部40の設置位置(校正点)を別の部分領域でも用いることによって、校正点を増やすことができ、より誤差に強い補間を行うことができるようになる。   In the first embodiment described above, when the coordinate conversion table at an arbitrary viewpoint position is predicted, the imaging unit 40 is moved to nine locations to form four partial areas. The number of moving locations and the number of partial areas to be generated are not limited to these values. That is, calibration may be performed by moving the imaging unit 40 to more positions, and the number of partial areas may be increased. By increasing the number of partial areas in this way, a smoother approximation is possible. Further, by using the installation position (calibration point) of the imaging unit 40 used in a certain partial area also in another partial area, it is possible to increase the calibration points and perform interpolation more resistant to errors.

以上、この発明の実施例を図面により詳述してきたが、実施例はこの発明の例示にしか過ぎないものであるため、この発明は実施例の構成にのみ限定されるものではなく、この発明の要旨を逸脱しない範囲の設計の変更等があってもこの発明に含まれることは勿論である。   Although the embodiments of the present invention have been described in detail with reference to the drawings, the embodiments are only examples of the present invention, and the present invention is not limited to the configurations of the embodiments. Needless to say, design changes and the like within a range not departing from the gist of the invention are included in the present invention.

10b・・・・・画像情報生成部
40・・・・・・撮像部
52・・・・・・視点
64・・・・・・撮像部設置位置・視点位置検出部
70・・・・・・第1の座標対応関係算出部
80・・・・・・対応マップ記憶部(第1の座標対応関係記憶部)
90・・・・・・座標変換テーブル生成部(第2の座標対応関係推定部)
100・・・・・ヘッドアップディスプレイの歪補正装置
Id・・・・・・事前変形パターン
Lx,Ly・・・第1基準マーカ(基準線)
Mx,My・・・第2基準マーカ(基準線)
Ir・・・・・・基準パターン
Ip・・・・・・基準パターンの投影像
Ii・・・・・・HUD表示像
Ic・・・・・・観測画像(カメラ画像)
Mip_x, Mip_y・・・対応マップ(座標変換テーブル)
w・・・・・・・設置位置
10b... Image information generation unit 40... Imaging unit 52... View point 64. First coordinate correspondence calculation unit 80... Correspondence map storage unit (first coordinate correspondence storage unit)
90... Coordinate conversion table generation unit (second coordinate correspondence estimation unit)
DESCRIPTION OF SYMBOLS 100 ... Head-up display distortion correction apparatus Id ... Prior deformation pattern Lx, Ly ... 1st reference | standard marker (reference line)
Mx, My ... second reference marker (reference line)
Ir ··· Reference pattern Ip ··· Projection image of reference pattern Ii ··· HUD display image Ic ··· Observation image (camera image)
Mip_x, Mip_y ... correspondence map (coordinate conversion table)
w ... installation position

Claims (8)

運転者の前方視界の中に虚像を表示するヘッドアップディスプレイの歪補正方法であって、
運転者の視点の位置に相当する位置に車両の前方へ向けて撮像部を設置する撮像部設置プロセスと、
前記撮像部が所定の方向に向くように調整する観測方向調整プロセスと、
前記撮像部の設置位置を検出する撮像部位置検出プロセスと、
運転者の前方視界の中に基準パターンを投影して投影像を生成する基準パターン投影プロセスと、
前記投影像を前記撮像部で撮像して撮像画像を得る投影像撮像プロセスと、
前記基準パターンを構成する点の座標と、前記撮像画像の中の前記点と同じ点の座標と、の間の第1の座標対応関係を算出する第1の座標対応関係算出プロセスと、
前記撮像部の設置位置を変更する撮像部位置変更プロセスと、
前記撮像部の各設置位置において、前記第1の座標対応関係算出プロセスを繰り返して行うことによって得られた各第1の座標対応関係をそれぞれ記憶する第1の座標対応関係記憶プロセスと、
運転者の視点の位置を検出する運転者視点位置検出プロセスと、
前記各第1の座標対応関係に基づいて、前記撮像部を前記視点の位置に設置したときに得られると考えられる、前記基準パターンを構成する点の座標と、前記視点の位置で撮像されると予測される前記基準パターンの投影像の中の前記点と同じ点の座標と、の間の第2の座標対応関係を推定する第2の座標対応関係推定プロセスと、
前記第2の座標対応関係を記憶する第2の座標対応関係記憶プロセスと、
前記視点の位置において推定された前記第2の座標対応関係に基づいて、歪のない投影像が投影されるように予め変形された画像情報を生成する画像情報生成プロセスと、
前記画像情報を投影して投影像を生成する画像情報投影プロセスと、からなることを特徴とするヘッドアップディスプレイの歪補正方法。
A head-up display distortion correction method for displaying a virtual image in a driver's forward view,
An imaging unit installation process in which the imaging unit is installed toward the front of the vehicle at a position corresponding to the position of the driver's viewpoint;
An observation direction adjustment process for adjusting the imaging unit to face a predetermined direction;
An imaging unit position detection process for detecting an installation position of the imaging unit;
A reference pattern projection process for projecting a reference pattern into the driver's forward field of view to generate a projected image;
A projected image imaging process of capturing the projected image by the imaging unit to obtain a captured image;
A first coordinate correspondence calculation process for calculating a first coordinate correspondence between the coordinates of the points constituting the reference pattern and the coordinates of the same point as the point in the captured image;
An imaging unit position changing process for changing an installation position of the imaging unit;
A first coordinate correspondence storage process for storing each first coordinate correspondence obtained by repeatedly performing the first coordinate correspondence calculation process at each installation position of the imaging unit;
A driver viewpoint position detection process for detecting the position of the driver's viewpoint;
Based on each first coordinate correspondence, an image is captured at the coordinates of the points constituting the reference pattern and the position of the viewpoint, which is considered to be obtained when the imaging unit is installed at the position of the viewpoint. A second coordinate correspondence estimation process for estimating a second coordinate correspondence between the coordinates of the same point as the point in the projected image of the reference pattern predicted
A second coordinate correspondence storage process for storing the second coordinate correspondence;
An image information generation process for generating image information deformed in advance so that a projection image without distortion is projected based on the second coordinate correspondence estimated at the position of the viewpoint;
An image information projection process for projecting the image information to generate a projected image, and a distortion correction method for a head-up display.
前記観測方向調整プロセスは、前記撮像部で撮像された画像の中で、前記撮像部に設置されて、前記撮像部の移動によらずその位置が固定された第1基準マーカの像と、運転者の前方視界の所定位置に表示された第2基準マーカの像と、の位置を合致させることによって行うことを特徴とする請求項1に記載のヘッドアップディスプレイの歪補正方法。   The observation direction adjustment process includes an image of a first reference marker that is installed in the imaging unit and whose position is fixed regardless of the movement of the imaging unit among the images captured by the imaging unit, and driving The head-up display distortion correction method according to claim 1, wherein the correction is performed by matching the position of the second reference marker image displayed at a predetermined position in the person's front field of view. 前記第2の座標対応関係推定プロセスは、前記撮像部位置変更プロセスにおいて設置された前記撮像部の複数の設置位置の水平方向座標の最小値と最大値、および垂直方向座標の最小値と最大値をそれぞれ頂点とする長方形を、水平方向、垂直方向にそれぞれ予め決められた分割数に分割して複数の部分領域を形成し、形成された複数の前記部分領域の中で、運転者の前記視点の位置が属する部分領域の中心位置から所定距離内にある前記撮像部の各設置位置における前記第1の座標対応関係に基づいて、前記視点の位置における第2の座標対応関係を推定するものであることを特徴とする請求項1または請求項2に記載のヘッドアップディスプレイの歪補正方法。   The second coordinate correspondence relationship estimation process includes a minimum value and a maximum value of horizontal coordinates and a minimum value and a maximum value of vertical coordinates of a plurality of installation positions of the imaging unit installed in the imaging unit position change process. Are divided into a predetermined number of divisions respectively in the horizontal direction and the vertical direction to form a plurality of partial areas, and the viewpoint of the driver among the plurality of formed partial areas The second coordinate correspondence at the position of the viewpoint is estimated based on the first coordinate correspondence at each installation position of the imaging unit within a predetermined distance from the center position of the partial area to which the position belongs. The head-up display distortion correction method according to claim 1, wherein the head-up display distortion correction method is provided. 前記第2の座標対応関係は、前記視点の位置の一次式で表されることを特徴とする請求項1から請求項3のいずれか1項に記載のヘッドアップディスプレイの歪補正方法。   4. The head-up display distortion correction method according to claim 1, wherein the second coordinate correspondence relationship is expressed by a linear expression of the position of the viewpoint. 5. 運転者の前方視界の中に虚像を表示するヘッドアップディスプレイの歪補正装置であって、
運転者の前方に画像情報を投影して投影像を生成する情報投影部と、
運転者の視点に相当する位置に、前記情報投影部によって投影された画像情報の所定の位置を向くように設置された撮像部と、
前記画像情報として投影された基準パターンの投影像を前記撮像部で撮像して、撮像された観測画像と前記投影像とを比較して、同じ点を表す座標同士の第1の座標対応関係を、前記撮像部を複数の異なる設置位置に移動して、前記撮像部の各設置位置においてそれぞれ算出する第1の座標対応関係算出部と、
前記各第1の座標対応関係をそれぞれ記憶する第1の座標対応関係記憶部と、
前記撮像部の設置位置または運転者の視点の位置を検出する撮像部設置位置・視点位置検出部と、
前記各第1の座標対応関係に基づいて、前記撮像部を前記視点の位置に設置したときに得られると考えられる、前記基準パターンを構成する点の座標と、前記視点の位置で撮像されると予測される前記基準パターンの投影像の中の前記点と同じ点を表す点の座標と、の間の第2の座標対応関係を推定して、前記視点の位置において歪のない投影像が観測されるように予め変形された事前変形パターンを生成するための座標変換テーブルを生成する座標変換テーブル生成部と、
前記座標変換テーブルに基づいて、事前変形された画像情報を生成する画像情報生成部と、を有して、前記情報投影部から前記画像情報を投影して投影像を生成することを特徴とするヘッドアップディスプレイの歪補正装置。
A head-up display distortion correction device that displays a virtual image in the driver's forward field of view,
An information projection unit that projects image information in front of the driver to generate a projection image;
An imaging unit installed at a position corresponding to the viewpoint of the driver so as to face a predetermined position of the image information projected by the information projection unit;
The projected image of the reference pattern projected as the image information is captured by the imaging unit, the captured observation image and the projected image are compared, and the first coordinate correspondence between the coordinates representing the same point is obtained. A first coordinate correspondence calculating unit that moves the imaging unit to a plurality of different installation positions and calculates each of the imaging units at each installation position;
A first coordinate correspondence storage unit for storing each of the first coordinate correspondences;
An imaging unit installation position / viewpoint position detection unit for detecting an installation position of the imaging unit or a driver's viewpoint; and
Based on each first coordinate correspondence, an image is captured at the coordinates of the points constituting the reference pattern and the position of the viewpoint, which is considered to be obtained when the imaging unit is installed at the position of the viewpoint. A second coordinate correspondence between the projected coordinates of the reference pattern predicted to be the same as the coordinates of the point and the coordinates of a point representing the same point is estimated, and a projected image without distortion at the position of the viewpoint is obtained. A coordinate conversion table generating unit that generates a coordinate conversion table for generating a pre-deformed pattern that has been deformed in advance so as to be observed;
An image information generation unit that generates pre-deformed image information based on the coordinate conversion table, and projects the image information from the information projection unit to generate a projection image. Head-up display distortion correction device.
前記第1の座標対応関係算出部は、前記撮像部で撮像された画像の中で、前記撮像部に設置されて、前記撮像部の移動によらずその位置が固定された第1基準マーカの像と、運転者の前方視界の所定位置に表示された第2基準マーカの像と、の位置を合致させた状態で前記第1の座標対応関係を算出することを特徴とする請求項5に記載のヘッドアップディスプレイの歪補正装置。   The first coordinate correspondence calculation unit is installed in the imaging unit among images captured by the imaging unit, and a first reference marker whose position is fixed regardless of movement of the imaging unit. The first coordinate correspondence relationship is calculated in a state in which the position of the image and the image of the second reference marker displayed at a predetermined position in the driver's forward field of view coincide with each other. The distortion correction apparatus of the head-up display as described. 前記第2の座標対応関係推定部は、前記撮像部の異なる複数の設置位置の水平方向座標の最小値と最大値、および垂直方向座標の最小値と最大値をそれぞれ頂点とする長方形を、水平方向、垂直方向にそれぞれ予め決められた分割数に分割して形成された複数の部分領域の中で、運転者の前記視点の位置が属する部分領域の中心位置から所定距離内にある前記撮像部の各設置位置における前記第1の座標対応関係に基づいて、前記視点の位置における第2の座標対応関係を推定するものであることを特徴とする請求項5または請求項6に記載のヘッドアップディスプレイの歪補正装置。   The second coordinate correspondence relationship estimation unit horizontally converts a rectangle having a minimum value and a maximum value of horizontal coordinates and a minimum value and a maximum value of vertical coordinates of the plurality of installation positions of the imaging unit, respectively. The imaging unit within a predetermined distance from the center position of the partial region to which the position of the viewpoint of the driver belongs among a plurality of partial regions formed by dividing the predetermined number of directions in the direction and the vertical direction. 7. The head-up according to claim 5, wherein the second coordinate correspondence relationship at the viewpoint position is estimated based on the first coordinate correspondence relationship at each installation position. Display distortion correction device. 前記第2の座標対応関係推定部は、前記第2の座標対応関係を、前記視点の位置の一次式で表すことを特徴とする請求項5から請求項7のいずれか1項に記載のヘッドアップディスプレイの歪補正装置。   The head according to any one of claims 5 to 7, wherein the second coordinate correspondence relationship estimation unit represents the second coordinate correspondence relationship by a linear expression of the position of the viewpoint. Up display distortion correction device.
JP2015172989A 2015-09-02 2015-09-02 Head-up display distortion correction method and head-up display distortion correction apparatus using the same Active JP6390032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015172989A JP6390032B2 (en) 2015-09-02 2015-09-02 Head-up display distortion correction method and head-up display distortion correction apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015172989A JP6390032B2 (en) 2015-09-02 2015-09-02 Head-up display distortion correction method and head-up display distortion correction apparatus using the same

Publications (2)

Publication Number Publication Date
JP2017047794A true JP2017047794A (en) 2017-03-09
JP6390032B2 JP6390032B2 (en) 2018-09-19

Family

ID=58278020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015172989A Active JP6390032B2 (en) 2015-09-02 2015-09-02 Head-up display distortion correction method and head-up display distortion correction apparatus using the same

Country Status (1)

Country Link
JP (1) JP6390032B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109884793A (en) * 2017-12-06 2019-06-14 三星电子株式会社 Method and apparatus for estimating the parameter of virtual screen
WO2020016994A1 (en) * 2018-07-19 2020-01-23 三菱電機株式会社 Image distortion inspection device, image distortion inspection method, and program
CN111353951A (en) * 2018-12-20 2020-06-30 精工爱普生株式会社 Circuit device, electronic apparatus, and moving object
WO2020235400A1 (en) * 2019-05-20 2020-11-26 ソニー株式会社 Image processing device, image processing method, and program
US10928901B2 (en) 2018-12-04 2021-02-23 Samsung Electronics Co., Ltd. Calibration method for three-dimensional (3D) augmented reality and apparatus thereof
CN112584114A (en) * 2020-12-04 2021-03-30 浙江水晶光电科技股份有限公司 Head-up display and image correction method thereof
US10996478B2 (en) 2018-10-16 2021-05-04 Hyundai Motor Company Method for correcting image distortion in a HUD system
WO2022250164A1 (en) * 2021-05-28 2022-12-01 京セラ株式会社 Method for configuring three-dimensional image display system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993713B (en) * 2019-04-04 2021-11-05 阿波罗智联(北京)科技有限公司 Image distortion correction method and device for vehicle-mounted head-up display system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731902A (en) * 1996-08-19 1998-03-24 Delco Electronics Corporation Head-up display combiner binocular test fixture
JPH10200836A (en) * 1997-01-07 1998-07-31 Nikon Corp Image projection device
JP2005099150A (en) * 2003-09-22 2005-04-14 Olympus Corp Image correction data calculation method of image display apparatus
JP2005244835A (en) * 2004-02-27 2005-09-08 Olympus Corp Multiprojection system
JP2015087619A (en) * 2013-10-31 2015-05-07 日本精機株式会社 Vehicle information projection system and projection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731902A (en) * 1996-08-19 1998-03-24 Delco Electronics Corporation Head-up display combiner binocular test fixture
JPH10200836A (en) * 1997-01-07 1998-07-31 Nikon Corp Image projection device
JP2005099150A (en) * 2003-09-22 2005-04-14 Olympus Corp Image correction data calculation method of image display apparatus
JP2005244835A (en) * 2004-02-27 2005-09-08 Olympus Corp Multiprojection system
JP2015087619A (en) * 2013-10-31 2015-05-07 日本精機株式会社 Vehicle information projection system and projection device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109884793A (en) * 2017-12-06 2019-06-14 三星电子株式会社 Method and apparatus for estimating the parameter of virtual screen
JP2019099142A (en) * 2017-12-06 2019-06-24 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for estimating parameter of virtual screen
CN109884793B (en) * 2017-12-06 2022-07-19 三星电子株式会社 Method and apparatus for estimating parameters of virtual screen
WO2020016994A1 (en) * 2018-07-19 2020-01-23 三菱電機株式会社 Image distortion inspection device, image distortion inspection method, and program
US10996478B2 (en) 2018-10-16 2021-05-04 Hyundai Motor Company Method for correcting image distortion in a HUD system
US10928901B2 (en) 2018-12-04 2021-02-23 Samsung Electronics Co., Ltd. Calibration method for three-dimensional (3D) augmented reality and apparatus thereof
CN111353951A (en) * 2018-12-20 2020-06-30 精工爱普生株式会社 Circuit device, electronic apparatus, and moving object
CN111353951B (en) * 2018-12-20 2023-09-29 精工爱普生株式会社 Circuit device, electronic apparatus, and moving object
WO2020235400A1 (en) * 2019-05-20 2020-11-26 ソニー株式会社 Image processing device, image processing method, and program
US11785188B2 (en) 2019-05-20 2023-10-10 Sony Group Corporation Image processing apparatus and image processing method
CN112584114A (en) * 2020-12-04 2021-03-30 浙江水晶光电科技股份有限公司 Head-up display and image correction method thereof
WO2022250164A1 (en) * 2021-05-28 2022-12-01 京セラ株式会社 Method for configuring three-dimensional image display system

Also Published As

Publication number Publication date
JP6390032B2 (en) 2018-09-19

Similar Documents

Publication Publication Date Title
JP6390032B2 (en) Head-up display distortion correction method and head-up display distortion correction apparatus using the same
CN109688392B (en) AR-HUD optical projection system, mapping relation calibration method and distortion correction method
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
JP4861574B2 (en) Driving assistance device
JP4863922B2 (en) Driving support system and vehicle
EP3032818B1 (en) Image processing device
US8134608B2 (en) Imaging apparatus
EP3644281A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
US20130002861A1 (en) Camera distance measurement device
EP2437494A1 (en) Device for monitoring area around vehicle
JP2011182236A (en) Camera calibration apparatus
JP2009042162A (en) Calibration device and method therefor
JP5959311B2 (en) Data deriving apparatus and data deriving method
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
JP5711638B2 (en) Image processing device
CN111664839A (en) Vehicle-mounted head-up display virtual image distance measuring method
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
JP5240517B2 (en) Car camera calibration system
JP2012019552A (en) Driving support device
JP2011228857A (en) Calibration device for on-vehicle camera
KR20100104166A (en) Camera calibration method
CN108701349B (en) Method and device for displaying front view of vehicle surroundings and corresponding vehicle
JP2006127083A (en) Image processing method, and image processor
JP2019209734A (en) Track identification apparatus
JP7074546B2 (en) Image processing equipment and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180730

R150 Certificate of patent or registration of utility model

Ref document number: 6390032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250