JP2010218226A - Measurement map generation device and traveling environment confirmation device - Google Patents

Measurement map generation device and traveling environment confirmation device Download PDF

Info

Publication number
JP2010218226A
JP2010218226A JP2009064428A JP2009064428A JP2010218226A JP 2010218226 A JP2010218226 A JP 2010218226A JP 2009064428 A JP2009064428 A JP 2009064428A JP 2009064428 A JP2009064428 A JP 2009064428A JP 2010218226 A JP2010218226 A JP 2010218226A
Authority
JP
Japan
Prior art keywords
image
coordinate system
distortion
wide
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009064428A
Other languages
Japanese (ja)
Inventor
Kengo Shibata
健吾 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2009064428A priority Critical patent/JP2010218226A/en
Publication of JP2010218226A publication Critical patent/JP2010218226A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain the coordinate values of a world coordinate system in real time from a wide angle image with distortion. <P>SOLUTION: A measurement map generation device includes: distortion flattening processing 30 for converting the image coordinate value [Ud, Vd] of a wide angle image 10 into a distorted plane coordinate value [Xcd, Ycd] by using a coordinate relation expression 20 and each parameter; ideal flattening processing 32 for converting the distorted plane coordinate value [Xcd, Ycd] into an ideal plane coordinate value [Xcm, Ycm]; a world coordinate creation processing 34 for converting the ideal plane coordinate value [Xcm, Ycm] into a world coordinate value [Xwm, Ywm, Zwm]; and a map generation processing 36 for storing the world coordinate value [Xwn, Ywm, Zwm] of the image coordinate value [Ud, Vd] into a storage part 14 as a measurement map 38. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理により走行環境を確認する技術分野に関連し、特に、移動体に装備され走行環境の物体を抽出する技術に関する。   The present invention relates to a technical field for confirming a traveling environment by image processing, and more particularly to a technique for extracting an object of a traveling environment that is mounted on a moving body.

移動体は、例えば、四輪車、二輪車、電動車などである。運転者は、駐車のための操作時等を除き、通常、走行する前方を視る。車線変更や、右左折時には、各種ミラーで後方を確認する。また、移動体には、運転者からの死角がある。移動体の前方、側方及び後方を走行環境という。
運転者による走行環境の確認を支援するためのシステムとして、画像処理を用いて、自車の前方、後方又は側方を監視し、物体の挙動を確認するシステムがある。例えば、後方や側方の確認装置は、後方から接近する物体(障害物、他車、接近車両)を捉えて、運転者の運転操作等に応じて警報等を発する。また、運転者に情報を提示する表示部を備え、表示部に後方画像を表示する手法もある。
The moving body is, for example, a four-wheeled vehicle, a two-wheeled vehicle, an electric vehicle, or the like. The driver usually looks forward in front of the vehicle, except during an operation for parking. When changing lanes or turning left and right, check the back with various mirrors. Further, the moving body has a blind spot from the driver. The front, side, and rear of the moving body are referred to as a traveling environment.
As a system for assisting the driver in confirming the driving environment, there is a system that monitors the front, rear, or side of the host vehicle and confirms the behavior of the object using image processing. For example, the rear and side confirmation devices capture objects (obstacles, other vehicles, approaching vehicles) approaching from the rear, and issue an alarm or the like according to the driving operation of the driver. There is also a method of providing a display unit for presenting information to the driver and displaying a rear image on the display unit.

特許文献1には、車両後方の障害物を検出することを目的として、平坦路面に投影した輝点パターンを撮像して基準画像としておき、監視対象に投影した同一の輝点パターンを基準画像と比較し、画像の相違に基づいて三次元計測し、障害物を検出する手法が開示されている(段落0014から段落0016,図3及び図4)。
そして、この特許文献1では、広角レンズを使用する際の広角画像の歪み(歪曲)に対応して、基準となる平坦路面に投影した各輝点の隣り合わせの情報を輝点探索方向とする参照データの生成手法が開示されている(段落0023から段落0027,図5及び図12)。
特許文献2には、連続する後方画像からオプティカルフローを抽出し、これを危険度と関連付けることを目的として、オプティカルフローの総量に対応するフローの大きさと自車との相対速度とを危険度に関連付ける手法が開示されている。
特許文献3には、自車の死角領域への他車の進入を検出することを目的として、オプティカルフローの消失時点以降の他車と自車の相対的位置関係を推定する手法や、消失点(FOE, Focus of Expansion)を利用してフローを検出する手法が開示されている。
特許文献4には、画像計測を高精度に行うことを目的として、校正用の板を撮像し、実測による像高と撮像画面上の像高とを求め、歪曲収差率を算出して、補正曲線を得る手法が開示されている。
特許文献5には、カーブ走行中も接近物を精度良く検出することを目的として、空間モデルを仮定して(段落0108から段落0115、図15から図18)、カメラ画像のオプティカルフローを三次元座標系に変換する(段落0116から段落0131、図19)手法が開示されている。また、カメラ座標系の二次元座標を世界座標系の三次元座標に変換する際に、空間モデルは路面よりも高い位置にあるという条件を加えることで、一意な変換を決定することができる旨が開示されている(段落0120、数9)。
特許文献6には、隣接車線の接近を正確に検出して警告することを目的として、広角レンズを使用した広角画像の歪みを補正して、白線を抽出し、オプティカルフローにより接近車両を検出する手法が開示されている。
In Patent Document 1, for the purpose of detecting an obstacle behind the vehicle, a bright spot pattern projected on a flat road surface is imaged and used as a reference image, and the same bright spot pattern projected on a monitoring target is used as a reference image. A method is disclosed in which an obstacle is detected by comparing and performing three-dimensional measurement based on a difference in images (paragraphs 0014 to 0016, FIGS. 3 and 4).
And in this patent document 1, in correspondence with the distortion (distortion) of a wide-angle image when using a wide-angle lens, reference is made to the information of adjacent bright spots projected on the reference flat road surface as the bright spot search direction. A data generation method is disclosed (paragraphs 0023 to 0027, FIGS. 5 and 12).
In Patent Document 2, for the purpose of extracting an optical flow from successive rear images and associating it with the risk level, the flow size corresponding to the total amount of the optical flow and the relative speed with the own vehicle are set as the risk level. An associating technique is disclosed.
In Patent Document 3, for the purpose of detecting the approach of another vehicle to the blind spot area of the own vehicle, a method for estimating the relative positional relationship between the other vehicle and the own vehicle after the disappearance of the optical flow, A method of detecting a flow using (FOE, Focus of Expansion) is disclosed.
In Patent Document 4, for the purpose of performing image measurement with high accuracy, a calibration plate is imaged, an image height obtained by actual measurement and an image height on an imaging screen are obtained, a distortion aberration rate is calculated, and correction is performed. A technique for obtaining a curve is disclosed.
In Patent Document 5, a spatial model is assumed (paragraphs 0108 to 0115 and FIGS. 15 to 18) for the purpose of accurately detecting an approaching object even while traveling on a curve, and the optical flow of the camera image is three-dimensional. A method of converting to a coordinate system (paragraph 0116 to paragraph 0131, FIG. 19) is disclosed. In addition, when converting the two-dimensional coordinates of the camera coordinate system to the three-dimensional coordinates of the world coordinate system, it is possible to determine a unique conversion by adding a condition that the spatial model is at a position higher than the road surface. Is disclosed (paragraph 0120, equation 9).
In Patent Document 6, for the purpose of accurately detecting and warning the approach of the adjacent lane, the distortion of the wide-angle image using the wide-angle lens is corrected, the white line is extracted, and the approaching vehicle is detected by the optical flow. A technique is disclosed.

このように、走行環境確認装置は、自車の周辺状況を自動的に確認するために、走行中の移動体に取り付けられたカメラを使用して、撮影した画像からオプティカルフロー等の処理で物体の動きを把握し、物体との相対位置、速度、移動方向を測定する。
また、物体の三次元空間の世界座標系と、撮影された画像の二次元の画像座標系とをカメラのキャリブレーション等の校正作業により対応させている。この世界座標系と画像座標系とを対応させるためには、線形な位置関係を前提としており、このため、レンズ収差の小さいカメラが使用される。このレンズ収差の小さいカメラは、原理的に、撮影可能なエリアが狭い。
ところで、近時、駐車支援などの目的で後方確認用カメラが普及している。この後方確認用カメラでは、車両後方を広範囲に運転者へ表示できるよう、レンズ収差の大きい広角レンズが使用される。この広角レンズによる広角画像は、線形ではなく、特許文献1及び特許文献6で取り扱われているよりも強い歪みがある。
広角レンズを使用した広角画像は、二次元のカメラ座標系と三次元の世界座標系との対応が非線形となり、そのままでは自動計測には不向きである。
In this way, the traveling environment confirmation device uses a camera attached to a moving moving object to automatically confirm the surrounding situation of the host vehicle, and performs processing such as optical flow from the captured image. The relative position, speed, and direction of movement of the object are measured.
Further, the world coordinate system of the three-dimensional space of the object and the two-dimensional image coordinate system of the photographed image are made to correspond by calibration work such as camera calibration. In order to make this world coordinate system correspond to the image coordinate system, a linear positional relationship is assumed, and therefore a camera with a small lens aberration is used. In principle, a camera having a small lens aberration has a small area that can be photographed.
By the way, recently, a camera for confirming the back is popular for the purpose of parking assistance. In this rear confirmation camera, a wide-angle lens having a large lens aberration is used so that the rear of the vehicle can be displayed to the driver in a wide range. The wide-angle image obtained by this wide-angle lens is not linear and has a stronger distortion than that handled in Patent Document 1 and Patent Document 6.
A wide-angle image using a wide-angle lens has a non-linear correspondence between the two-dimensional camera coordinate system and the three-dimensional world coordinate system, and is not suitable for automatic measurement as it is.

特開平6-325298号JP-A-6-325298 特開平11-259634号JP 11-259634 特開2000-127849JP2000-127849 特開2001-133223号JP 2001-133223 特開2004-56763号JP2004-56763 特開2007-26321号JP 2007-26321

このように、従来例では、広角画像の非線形性から、上記各引用文献に記載の手法を広角画像に適用することができない、という不都合があった。
そして、駐車支援などを目的として広角画像を撮像する後方確認用カメラが装着されていても、オプティカルフローや白線認識などの手法を用いて後方の安全確認を行う後方確認装置に関しては、レンズ収差の小さい専用カメラを別に導入しなければならない、という不都合があった。
As described above, the conventional example has a disadvantage that the method described in each of the cited references cannot be applied to the wide-angle image due to the nonlinearity of the wide-angle image.
In addition, even if a rear-viewing camera that captures a wide-angle image for the purpose of parking assistance or the like is mounted, the rear-confirming device that performs the rear safety confirmation using a technique such as optical flow or white line recognition is used for lens aberration. There was an inconvenience that a small dedicated camera had to be introduced separately.

例えば、上記特許文献2では、二次元の画像平面上の輝度値の時間的推移を特定することで、三次元の世界座標でのフローの移動を予測しているが、収差の小さいレンズが前提であり、この手法を広角画像に適用すると、自車との車間距離が縮まるほど二次元・三次元の座標間で対応をとるのが困難となってしまう。   For example, in Patent Document 2 described above, the movement of the flow in the three-dimensional world coordinates is predicted by specifying the temporal transition of the luminance value on the two-dimensional image plane. When this method is applied to a wide-angle image, it becomes difficult to establish correspondence between two-dimensional and three-dimensional coordinates as the distance between the vehicle and the host vehicle decreases.

上記特許文献3では、FOEを使用してフローを検出しているが、広角画像にこの手法を適用すると、FOEから伸びるフローベクトルが曲線(非ベクトル)となり、自車との車間距離が縮まるほどFOE推定が適わず対応が取れなくなってしまう。
また、FOE推定残差法(任意のフローの集まりをある1グループと定義し、そのグループ内でFOEを設定し判定を行う処理)等に基づく処理についても、やはり歪みによる非線形成分による同様の障害が発生する。
そして、共通なFOEをもつ任意の1グループを最初にどこで区分けするかの選定処理には時間を要するため、後方の障害物の数が増えるほど組み合わせの数が増加し、演算負荷が著しく増大する恐れがあり、処理時間の予測が困難となる。
さらに、グループ化を速やかに実行するためには、グループ化処理の前段で、まずフローの性質(向き・方向)で不適切なフローをできるだけ除去し、組み合わせの数を減らす処理を事前に施すことが望ましく、そのためにも単独のフローの段階で有効・無効のフロー判定を行うための手法が必要となる。
また探索の有効範囲に関して、自車の真後ろ方向の検索を無効化し、隣斜線後方の接近障害物に限定して障害物の検出を行う仕様を前提としているが、このような仕様で、仮に後方のカメラ視野全域の安全確認を行うためには、他のカメラの追加導入と補完・連携作業が必要となってしまう。
In Patent Document 3, the flow is detected using FOE. However, when this method is applied to a wide-angle image, the flow vector extending from the FOE becomes a curve (non-vector), and the distance between the vehicle and the vehicle decreases. The FOE estimation is not suitable and it becomes impossible to take a response.
In addition, for the processing based on the FOE estimation residual method (processing in which a set of arbitrary flows is defined as one group and FOE is set and determined in the group), etc., the same obstacle due to nonlinear components due to distortion is also used. Will occur.
Since it takes time to select where an arbitrary group having a common FOE is first divided, the number of combinations increases as the number of obstacles behind increases, and the calculation load may increase significantly. Yes, it is difficult to predict the processing time.
Furthermore, in order to execute grouping quickly, first of all, in advance of the grouping process, remove inappropriate flows as much as possible according to the nature (direction / direction) of the flow, and perform processing to reduce the number of combinations in advance. For this purpose, a technique for determining valid / invalid flow at the stage of a single flow is required.
In addition, regarding the effective search range, it is assumed that the search in the direction directly behind the vehicle is disabled and the obstacle detection is limited to the approaching obstacle behind the adjacent diagonal line. In order to confirm the safety of the entire camera field of view, additional introduction of other cameras and supplement / collaboration work are required.

上記特許文献5では、空間モデルやその高さの設定により二次元・三次元の座標間での対応付けをしているが、空間モデル自体が線形で定義されているため、広角画像に適用することができない。
上記特許文献6では、広角画像の歪みを補正した後に物体の抽出処理を行うため、第1に、補正画像の生成に処理時間が必要となり、より短時間の処理やリアルタイム性が要求される作業には不向きである。第2に、補正した画像は、歪み除去時の画像加工により、画像内の物体の形状に不自然さが加わってしまうため、オプティカルフローやマッチング作業の精度が低下する。
In the above-mentioned patent document 5, the spatial model and its height are set to associate the coordinates between two-dimensional and three-dimensional coordinates. I can't.
In Patent Document 6, since object extraction processing is performed after distortion of a wide-angle image is corrected, firstly, processing time is required to generate a corrected image, and work requiring shorter processing and real-time properties is required. Not suitable for. Second, since the corrected image adds unnaturalness to the shape of the object in the image due to the image processing at the time of distortion removal, the accuracy of the optical flow and the matching operation is lowered.

上記特許文献1の輝点パターンの投影で広角画像用の参照データを予め作成しておくと、実際の処理時に補正画像を生成しないため望ましいが、輝点パターンの投影では、解像度が粗く、後方から接近する車両を精度良く捉えることが困難となってしまう。
上記特許文献4の歪曲収差の補正方法では、多項式となる補正式により歪曲収差を補正することができるが、多項式のみの補正では、広角画像の中央部分を良好に補正することができても、広角画像の歪曲の大きいが周辺環境の確認に重要な外側部分について、その歪曲を良好に補正することができない。また、補正曲線を求めておき、個々の画像については当該補正曲線から歪曲の補正を計算処理するため、特許文献6等と同様に、リアルタイム性が要求される作業に不向きとなる。
It is desirable to create reference data for a wide-angle image in advance by projecting the bright spot pattern of Patent Document 1 above, because a corrected image is not generated during actual processing. However, in the projection of a bright spot pattern, the resolution is rough and the rear It becomes difficult to accurately capture a vehicle approaching from the vehicle.
In the distortion aberration correction method of Patent Document 4 described above, distortion aberration can be corrected by a correction equation that is a polynomial. Although the distortion of the wide-angle image is large, the distortion cannot be corrected satisfactorily for the outer portion that is important for the confirmation of the surrounding environment. In addition, since a correction curve is obtained and distortion correction is calculated from the correction curve for each image, it is not suitable for work requiring real-time characteristics, as in Patent Document 6 and the like.

特に、走行環境確認のためのオプティカルフロー処理では、白線を抽出して走行路を特定し、走行路の消失点を求める処理を行っているため、線形の画像が前提であって、広角画像を用いる際にも、特許文献6記載の手法のように、線形の画像に補正しなければならない。そして、歪曲のある画像を補正すると、オプティカルフローの抽出処理などで必要となるマッチングの精度が低下してしまう。   In particular, in the optical flow process for confirming the driving environment, a white line is extracted to identify the road and the vanishing point of the road is determined. Also when using, like the method of patent document 6, you have to correct | amend to a linear image. When a distorted image is corrected, matching accuracy required for optical flow extraction processing or the like decreases.

[課題1]このように、上記従来例では、歪曲のある広角画像をリアルタイムの走行環境確認処理に利用することができない、という不都合があった。
[課題2]さらに、上記従来例では、広角画像を使用してリアルタイムに走行環境を確認することができない、という不都合があった。
[Problem 1] As described above, the conventional example has a disadvantage that a wide-angle image with distortion cannot be used for real-time traveling environment confirmation processing.
[Problem 2] Further, in the above conventional example, there is a disadvantage that the traveling environment cannot be confirmed in real time using the wide-angle image.

[発明の目的] 本発明の目的は、歪曲のある広角画像からリアルタイムに世界座標系の座標値を得ることにある。本発明はさらに、広角レンズを有するカメラを使用して走行環境をリアルタイムに確認することにある。   [Object of the Invention] An object of the present invention is to obtain coordinate values of the world coordinate system in real time from a distorted wide-angle image. Furthermore, the present invention is to check a traveling environment in real time using a camera having a wide-angle lens.

[着眼点]本発明の発明者は、広角画像の全体を補正するのではなく、オプティカルフローのマッチング処理等を広角画像のまま行い、抽出したフローについて世界座標値を求めれば良い、という点に着目した。そして、座標系の定義を工夫することで、上記課題を解決できるのではないか、との着想に至った。   [Focus Point] The inventor of the present invention does not correct the entire wide-angle image, but performs the optical flow matching process or the like with the wide-angle image, and obtains the world coordinate value for the extracted flow. Pay attention. And they came up with the idea that the above problem could be solved by devising the definition of the coordinate system.

[課題解決手段1]実施例1に対応する第1群の本発明は、広角レンズを有するカメラの外部パラメーター及び内部パラメーターを記憶した記憶部と、前記カメラから入力される広角画像の画像処理に使用するための所定の計測マップを生成する生成処理部とを備えている。そして、前記記憶部が、複数の座標系を定義する座標系定義と、各座標系の関係を表す複数の座標関係式と、各座標関係式の係数となる関係式パラメーターとを記憶している。
さらに、前記座標系定義による座標系が、前記広角画像の画素を単位とする二次元の画像座標系と、前記カメラの三次元のカメラ座標系を歪曲のない理想的な二次元の理想平面に投影した理想平面座標系と、前記広角レンズによる前記広角画像の歪曲を前記理想平面に投影して歪曲平面とした歪曲平面座標系と、前記カメラの撮像対象となる世界の三次元の世界座標系とである。
そして、前記生成処理部が、前記座標系のそれぞれの座標値について、前記座標関係式とそれぞれのパラメーターとを使用して、前記広角画像の画像座標値を歪曲平面座標値に変換する歪曲平面化処理と、前記歪曲平面座標値を理想平面座標値に変換する理想平面化処理と、前記理想平面座標値を前記世界座標値に変換する世界座標化処理とを備えると共に、前記各画像座標値の前記世界座標値を前記計測マップとして前記記憶部に格納するマップ生成処理を備えた、という構成を採っている。
これにより、上記課題1を解決した。
[Problem Solving Means 1] A first group of the present invention corresponding to the first embodiment is a storage unit storing external parameters and internal parameters of a camera having a wide-angle lens, and image processing of a wide-angle image input from the camera. And a generation processing unit that generates a predetermined measurement map for use. And the said memory | storage part has memorize | stored the coordinate system definition which defines a some coordinate system, the some coordinate relational expression showing the relationship of each coordinate system, and the relational expression parameter used as the coefficient of each coordinate relational expression. .
Further, the coordinate system defined by the coordinate system definition includes a two-dimensional image coordinate system in units of pixels of the wide-angle image, and a three-dimensional camera coordinate system of the camera as an ideal two-dimensional ideal plane without distortion. A projected ideal plane coordinate system, a distorted plane coordinate system in which the distortion of the wide-angle image by the wide-angle lens is projected onto the ideal plane as a distorted plane, and a three-dimensional world coordinate system of the world to be imaged by the camera It is.
Then, the generation processing unit converts the image coordinate value of the wide-angle image into a distortion plane coordinate value by using the coordinate relational expression and each parameter for each coordinate value of the coordinate system. Processing, an ideal planarization process that converts the distorted plane coordinate value into an ideal plane coordinate value, and a world coordinate conversion process that converts the ideal plane coordinate value into the world coordinate value. A configuration is adopted in which a map generation process for storing the world coordinate value in the storage unit as the measurement map is provided.
Thereby, the said subject 1 was solved.

[課題解決手段2] 実施例2に対応する第2群の本発明は、広角レンズを有し自車の走行環境を撮影するカメラと、所定の計測マップを記憶した記憶部と、前記カメラから入力される広角画像と前記計測マップとに基づいて前記自車の前記走行環境を確認する確認処理部とを備えている。
そして、前記計測マップは、前記走行環境の世界座標系での測定枠の範囲内について、画像座標系の画像座標値と前記世界座標系の世界座標値との対応を予め記憶したマップである。
さらに、前記確認処理部が、連続する前記広角画像を使用して、前記測定枠の範囲内の当該広角画像での特徴点を追跡する追跡処理と、前記追跡した特徴点であるフローの画像座標値から前記計測マップを参照し、当該フローの世界座標系での位置を特定する位置参照処理とを備えている。
これにより、上記課題2を解決した。
[Problem Solving Means 2] A second group of the present invention corresponding to the second embodiment includes a camera having a wide-angle lens and photographing a traveling environment of the own vehicle, a storage unit storing a predetermined measurement map, and the camera. A confirmation processing unit configured to confirm the traveling environment of the host vehicle based on the input wide-angle image and the measurement map.
And the said measurement map is a map which memorize | stored beforehand the correspondence of the image coordinate value of an image coordinate system, and the world coordinate value of the said world coordinate system about the range of the measurement frame in the world coordinate system of the said driving environment.
Further, the confirmation processing unit uses the continuous wide-angle image to track the feature point in the wide-angle image within the measurement frame, and the image coordinates of the flow that is the tracked feature point A position reference process for referring to the measurement map from the value and specifying the position of the flow in the world coordinate system.
Thereby, the said subject 2 was solved.

本発明は、本明細書の記載及び図面を考慮して各請求項記載の用語の意義を解釈し、各請求項に係る発明を認定すると、各請求項に係る発明は、上記背景技術等との関連において次の有利な効果を奏する。   The present invention interprets the meaning of the terms described in each claim in consideration of the description of the present specification and the drawings, and certifies the invention according to each claim. There are the following advantageous effects in relation to

[発明の作用効果1] 課題解決手段1の計測マップ生成装置は、生成処理部が、歪曲平面化処理として、前記広角画像の画像座標値を歪曲平面座標値に変換し、理想平面化処理として、前記歪曲平面座標値を理想平面座標値に変換する。このため、広角画像の歪曲を残したまま歪曲平面座標値を求め、さらにこの歪曲を補正して理想平面座標値に変換することができる。このため、世界座標化処理として、前記理想平面座標値を前記世界座標値に変換することができる。このように、理想平面と歪曲平面とを使用することで、広角画像の画像座標値を世界座標値に対応付けることができる。そして、マップ生成処理は、前記各画像座標値の前記世界座標値を前記計測マップとして前記記憶部に格納する。
従って、広角画像の画素位置(画像座標値)を特定し、この計測マップを使用すると、世界座標系での世界座標値を簡単かつ高速に特定することができる。特に、この計測マップを生成しておくと、広角画像の視野の広さを活かしつつ三次元測定をすることができる。さらに、計測マップを利用する前提で、広角画像を補正せずに画像処理の対象とすることができ、オプティカルフローの抽出処理等で必要となるマッチングの精度を向上させることができる。
[Functional Effect 1 of Invention] In the measurement map generating apparatus of the problem solving means 1, the generation processing unit converts the image coordinate value of the wide-angle image into the distortion plane coordinate value as the distortion planarization process, and performs the ideal planarization process. The distorted plane coordinate value is converted into an ideal plane coordinate value. Therefore, it is possible to obtain a distortion plane coordinate value while leaving the distortion of the wide-angle image, and further correct this distortion and convert it into an ideal plane coordinate value. For this reason, the ideal plane coordinate value can be converted into the world coordinate value as the world coordinate processing. Thus, by using the ideal plane and the distorted plane, the image coordinate value of the wide-angle image can be associated with the world coordinate value. And a map production | generation process stores the said world coordinate value of each said image coordinate value in the said memory | storage part as said measurement map.
Therefore, by specifying the pixel position (image coordinate value) of the wide-angle image and using this measurement map, the world coordinate value in the world coordinate system can be specified easily and at high speed. In particular, if this measurement map is generated, three-dimensional measurement can be performed while taking advantage of the wide field of view of the wide-angle image. Furthermore, on the premise of using a measurement map, a wide-angle image can be subjected to image processing without correction, and matching accuracy required for optical flow extraction processing or the like can be improved.

[発明の作用効果2] 課題解決手段2の走行環境確認装置は、記憶部が、前記走行環境の世界座標系での測定枠の範囲内について、画像座標系の画像座標値と前記世界座標系の世界座標値との対応を予め記憶した計測マップを記憶し、確認処理部が、追跡処理として、連続する前記広角画像を使用して、補正をせずに歪曲したまま、前記測定枠の範囲内の当該広角画像での特徴点を追跡し(追跡処理)、前記追跡した特徴点であるフローの画像座標値から前記計測マップを参照して、当該フローの世界座標系での位置を特定する(位置参照処理)。このため、計算量の予測が困難で不安定な広角画像自体の補正処理をすることなく、リアルタイムで、フローを抽出し、さらに、計測マップを参照することで、フローの世界座標系での世界座標値(位置)を得ることができる。   [Operation Effect 2 of the Invention] In the traveling environment confirmation device of the problem solving means 2, the storage unit has the image coordinate value of the image coordinate system and the world coordinate system within the range of the measurement frame in the world coordinate system of the traveling environment. A measurement map in which the correspondence with the world coordinate value is stored in advance, and the confirmation processing unit uses the continuous wide-angle image as a tracking process, and distorts the image without correcting the range. The feature point in the wide-angle image is tracked (tracking process), and the position of the flow in the world coordinate system is specified by referring to the measurement map from the image coordinate value of the flow that is the tracked feature point. (Location reference processing). For this reason, it is possible to extract the flow in real time without correcting the unstable wide-angle image itself, which is difficult to predict the calculation amount, and by referring to the measurement map, the world in the world coordinate system of the flow A coordinate value (position) can be obtained.

本発明の一実施形態の構成例を示すブロック図である。(実施例1から2)It is a block diagram which shows the structural example of one Embodiment of this invention. (Examples 1 and 2) 座標系の定義例を示す説明図である。(実施例1から2)It is explanatory drawing which shows the example of a definition of a coordinate system. (Examples 1 and 2) 歪曲平面及び理想平面の定義例を示す説明図である。(実施例1から2)It is explanatory drawing which shows the example of a definition of a distortion plane and an ideal plane. (Examples 1 and 2) 広角レンズと歪曲との関係例を示す説明図である。(実施例1から2)It is explanatory drawing which shows the example of a relationship between a wide angle lens and distortion. (Examples 1 and 2) 図5(A)は画像座標値の一例を示し、図5(B)は歪曲平面の一例を示し、図5(C)は理想平面の一例を示し、図5(D)は世界座標系の一例を示す説明図である(実施例1から2)5A shows an example of image coordinate values, FIG. 5B shows an example of a distortion plane, FIG. 5C shows an example of an ideal plane, and FIG. 5D shows the world coordinate system. It is explanatory drawing which shows an example (Example 1-2). 実施例1の構成例を示すフローチャートである。(実施例1)3 is a flowchart illustrating a configuration example of Embodiment 1. (Example 1) 図7(A)は広角画像の一例を示す図で、図7(B)は放射歪曲補正式による補正画像の一例を示す図で、図5(C)は放射歪曲補正式及び対数補正式による補正画像の一例を示す説明図である。(実施例1及び2)7A is a diagram showing an example of a wide-angle image, FIG. 7B is a diagram showing an example of a corrected image by a radial distortion correction formula, and FIG. 5C is a diagram by a radial distortion correction formula and a logarithmic correction formula. It is explanatory drawing which shows an example of a correction image. (Examples 1 and 2) 計測マップを生成する情報処理の一例を示すフローチャートである。(実施例1)It is a flowchart which shows an example of the information processing which produces | generates a measurement map. (Example 1) 計測マップを測定枠で抽出する情報処理の一例を示すフローチャートである。(実施例1)It is a flowchart which shows an example of the information processing which extracts a measurement map with a measurement frame. (Example 1) 図10(A)及び(B)は使用範囲の計測マップの一例を示す説明図である。(実施例1)FIGS. 10A and 10B are explanatory diagrams illustrating an example of a measurement map of the usage range. (Example 1) 図11(A)及び(B)は説明のために精度を落とした計測マップの一例を示す説明図である。(実施例1)FIGS. 11A and 11B are explanatory diagrams showing an example of a measurement map with reduced accuracy for explanation. (Example 1) 図12(A)から(C)は仮定地上高Yconstを変化させた場合の測定枠計測マップの一例を示す説明図である。(実施例1)FIGS. 12A to 12C are explanatory diagrams illustrating an example of a measurement frame measurement map when the assumed ground height Yconst is changed. (Example 1) 実施例2の構成例を示すブロック図である。(実施例2)10 is a block diagram illustrating a configuration example of Example 2. FIG. (Example 2) 実施例2のハードウエア資源の構成例を示すブロック図である。(実施例2)FIG. 10 is a block diagram illustrating a configuration example of hardware resources according to the second embodiment. (Example 2) オプティカルフローを測定する関係の一例を示す説明図である。(実施例2)It is explanatory drawing which shows an example of the relationship which measures an optical flow. (Example 2) 図16(A)及び(B)は広角画像の一例を示す説明図である。16A and 16B are explanatory diagrams illustrating an example of a wide-angle image. 図17(A)及び(B)は広角画像にオプティカルフロー抽出用のテンプレートを登録した一例を示す説明図である。FIGS. 17A and 17B are explanatory diagrams illustrating an example in which a template for optical flow extraction is registered in a wide-angle image. 図18(A)及び(B)は抽出したフローの一例を示す説明図である。18A and 18B are explanatory diagrams showing an example of the extracted flow. 図19(A)及び(B)はX方向の計測マップでマスクした広角画像の一例示す説明図である。19A and 19B are explanatory diagrams showing an example of a wide-angle image masked with a measurement map in the X direction. 図20(A)及び(B)はZ方向の計測マップでマスクした広角画像の一例示す説明図である。20A and 20B are explanatory diagrams illustrating an example of a wide-angle image masked with a measurement map in the Z direction. 図21(A)から(E)は抽出したフローと見かけ速度との関係の一例を示す説明図である。21A to 21E are explanatory diagrams showing an example of the relationship between the extracted flow and the apparent speed. 後方確認処理の一例を示すフローチャートである。It is a flowchart which shows an example of a back confirmation process. 速度範囲を用いて抽出したフローの一例を示す説明図である。It is explanatory drawing which shows an example of the flow extracted using the speed range. 複数の仮定地上高を使用する一例を示す説明図である。It is explanatory drawing which shows an example which uses several assumption ground height. 多階層でフローを抽出する一例を示す説明図である。It is explanatory drawing which shows an example which extracts a flow in multiple layers. 多階層で抽出したフローの一例を示す説明図である。It is explanatory drawing which shows an example of the flow extracted by the multi-hierarchy. 実施例3の構成例を示すブロック図である。(実施例3)10 is a block diagram illustrating a configuration example of Example 3. FIG. (Example 3) 広角画像と拡大補正画像との関係例を示す説明図である。It is explanatory drawing which shows the example of a relationship between a wide angle image and an expansion correction image. 歪補正画像生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a distortion correction image generation process. 仮定地上高Yconst=345とした簡易マップの一例を示す図で、図30(A)は重複部分を示し、図30(B)は簡易Xmapの誤差を示し、図30(C)は簡易Zmapの誤差を示す図である。FIG. 30A shows an example of a simple map with an assumed ground height Yconst = 345, FIG. 30A shows an overlapping portion, FIG. 30B shows an error of the simple Xmap, and FIG. 30C shows a simple Zmap. It is a figure which shows an error. 仮定地上高Yconst=0とした簡易マップの一例を示す図で、図31(A)は重複部分を示し、図31(B)は簡易Xmapの誤差を示し、図31(C)は簡易Zmapの誤差を示す図である。FIG. 31A shows an example of a simple map in which the assumed ground height Yconst = 0, FIG. 31A shows an overlapping portion, FIG. 31B shows an error of the simple Xmap, and FIG. 31C shows the simple Zmap. It is a figure which shows an error. 図32(A)から(E)は図30(A)に示す重複部分を重複数に応じて個別に表示した一例を示す説明図である。FIGS. 32A to 32E are explanatory diagrams showing an example in which the overlapping portions shown in FIG. 30A are individually displayed according to the overlapping number.

発明を実施するための最良の形態として、3つの実施例を開示する。実施例1は計測マップ生成装置であり、実施例2は走行環境確認装置であり、実施例3は歪画像補正装置である。実施例1から3までを含めて実施形態という。
実施例1は、二次元の広角画像10と三次元空間の世界座標の対応が非線形となる場合でも使用できる計測マップ38(画像と同じサイズの二次元テーブル)の生成手法に関する。特に、レンズ収差により発生する画像の歪みにより非線形となる場合に好適な技術である。
実施例2は、この計測マップ38とオプティカルフローの抽出処理とを併用するための技術に関する。
Three embodiments will be disclosed as the best mode for carrying out the invention. Example 1 is a measurement map generation device, Example 2 is a travel environment confirmation device, and Example 3 is a distortion image correction device. Embodiments including Examples 1 to 3 are referred to as embodiments.
The first embodiment relates to a method of generating a measurement map 38 (a two-dimensional table having the same size as the image) that can be used even when the correspondence between the two-dimensional wide-angle image 10 and the world coordinates in the three-dimensional space is nonlinear. In particular, this technique is suitable when the image becomes nonlinear due to image distortion caused by lens aberration.
The second embodiment relates to a technique for using the measurement map 38 and the optical flow extraction process in combination.

<1 広角画像用計測マップ作成>
<1.1 歪曲平面と理想平面>
まず、本実施形態の実施例1を開示する。実施例1は、広角画像10を走行環境確認装置で使いやすくするために、広角画像10の画像座標値[Ud, Vd]と世界座標系XYZの世界座標値[Xw, Yw, Zw]とを対応させる計測マップ38を生成するものである。
実施例1の計測マップ生成装置は、その主要な要素として、記憶部14と、生成処理部16とを備えている。
図1に示す例では、カメラ12は、広角レンズ28を有し、広角画像10を撮像する。この広角画像10は、記憶部14の画像メモリー15に格納される。
そして、記憶部14は、座標系定義18と、座標関係式20と、パラメーター群22とを備えている。座標系定義18は、画像座標系UVと、理想平面座標系XcmYcmと、歪曲平面座標系XcdYcdと、世界座標系XYZとを定義する。座標関係式20は、各座標系の座標値の関係を表す算式(後述する式(1),式(2),式(3)及び式(4))である。
さらに、記憶部14は、パラメーター群22として、カメラ12の外部パラメーターr,tと、内部パラメーターa,cと、座標関係式20の係数となる関係式パラメーターk,pとを記憶する。
各パラメーターは、単一ではなく、次元数や項数に応じた数の値を持つ。個々のパラメーターを特定する際には、添え字を付して表記し、添え字を一括する際には添え字nを用いることもある。
<1 Creating a measurement map for wide-angle images>
<1.1 Distorted and ideal planes>
First, Example 1 of this embodiment is disclosed. In the first embodiment, the image coordinate values [Ud, Vd] of the wide-angle image 10 and the world coordinate values [Xw, Yw, Zw] of the world coordinate system XYZ are used in order to make the wide-angle image 10 easy to use in the traveling environment confirmation device. A corresponding measurement map 38 is generated.
The measurement map generation apparatus according to the first embodiment includes a storage unit 14 and a generation processing unit 16 as main elements.
In the example illustrated in FIG. 1, the camera 12 includes a wide-angle lens 28 and captures a wide-angle image 10. The wide-angle image 10 is stored in the image memory 15 of the storage unit 14.
The storage unit 14 includes a coordinate system definition 18, a coordinate relational expression 20, and a parameter group 22. The coordinate system definition 18 defines an image coordinate system UV, an ideal plane coordinate system XcmYcm, a distorted plane coordinate system XcdYcd, and a world coordinate system XYZ. The coordinate relational expression 20 is an arithmetic expression (formula (1), formula (2), formula (3) and formula (4) which will be described later) representing the relationship between coordinate values of each coordinate system.
Further, the storage unit 14 stores, as the parameter group 22, external parameters r and t of the camera 12, internal parameters a and c, and relational expression parameters k and p that are coefficients of the coordinate relational expression 20.
Each parameter is not single, but has a value corresponding to the number of dimensions and the number of terms. When specifying individual parameters, they are indicated with a subscript, and the subscript n is sometimes used when subscripts are bundled.

図2及び図3に示すように、画像座標系UVは、前記広角画像10の画素を単位とする二次元の座標系であり、画像座標値[Ud, Vd]を特定する。この画像座標系UVは、カメラ12の解像度(画素数)に依存して定まる。
理想平面座標系XcmYcmは、前記カメラ12の三次元のカメラ座標系xyzを、歪曲のない理想的な二次元の理想平面24(図5(C))に投影した座標系であり、理想平面座標値[Xcm, Ycm]を特定する。理想平面24は、レンズ収差のない投影面で、世界座標系XYZの座標値と線形の関係を保つ。
歪曲平面座標系XcdYcdは、前記広角レンズ28による前記広角画像10の歪曲を前記理想平面24に投影して歪曲平面26(図5(B))とした座標系であり、歪曲平面座標値[Xcd, Ycd]を特定する。この歪曲平面座標系XcdYcdは非線形である。
世界座標系XYZは、線形で三次元であり、前記カメラ12の撮像対象となる世界の世界座標値[Xwm, Ywm, Zw]を特定する。
ここで、添え字wは世界座標系の値であることを示し、添え字cはイメージ・プレーン上の値であることを示し、添え字mは線形な画像であることを示し、添え字dは広角レンズによる歪みを含む画像であることを示す。すなわち、理想平面座標値[Xcm, Ycm]は理想状態でXwmYwmZwがイメージプレーン上に線形投影された理論座標値、歪曲平面座標値[Xcd, Ycd]はレンズ収差によりイメージプレーン上でmの理論投影点が歪曲変換された実投影座標値、画像座標値[Ud, Vd]はモニタなどの表示器における画像の座標系である。よってUdVdおよびXcdYcdは歪みを含む画像の座標値である。また、UdVdはカメラ等の入力装置による入力データ座標と等価である。
この添え字の使い方は、実施例2及び3でも同様である。実施例3では、広角画像10よりもサイズを拡大した座標系を使用するが、サイズを拡大した座標系の座標値には下付とした添え字aを用いる。
As shown in FIGS. 2 and 3, the image coordinate system UV is a two-dimensional coordinate system in which the pixel of the wide-angle image 10 is a unit, and specifies the image coordinate value [Ud, Vd]. This image coordinate system UV is determined depending on the resolution (number of pixels) of the camera 12.
The ideal plane coordinate system XcmYcm is a coordinate system obtained by projecting the three-dimensional camera coordinate system xyz of the camera 12 onto an ideal two-dimensional ideal plane 24 (FIG. 5C) without distortion. Specify the value [Xcm, Ycm]. The ideal plane 24 is a projection plane having no lens aberration, and maintains a linear relationship with the coordinate values of the world coordinate system XYZ.
The distorted plane coordinate system XcdYcd is a coordinate system in which the distortion of the wide-angle image 10 by the wide-angle lens 28 is projected onto the ideal plane 24 to form a distorted plane 26 (FIG. 5B). , Ycd]. This distorted plane coordinate system XcdYcd is non-linear.
The world coordinate system XYZ is linear and three-dimensional, and specifies world coordinate values [Xwm, Ywm, Zw] of the world to be imaged by the camera 12.
Here, the subscript w indicates a value in the world coordinate system, the subscript c indicates a value on the image plane, the subscript m indicates a linear image, and the subscript d Indicates an image including distortion caused by a wide-angle lens. That is, the ideal plane coordinate value [Xcm, Ycm] is the ideal state and XwmYwmZw is linearly projected onto the image plane, and the distortion plane coordinate value [Xcd, Ycd] is the theoretical projection of m on the image plane due to lens aberration. The actual projection coordinate values and image coordinate values [Ud, Vd] in which the points are distorted are an image coordinate system in a display device such as a monitor. Therefore, UdVd and XcdYcd are image coordinate values including distortion. UdVd is equivalent to input data coordinates by an input device such as a camera.
The usage of this subscript is the same as in the second and third embodiments. In the third embodiment, a coordinate system whose size is larger than that of the wide-angle image 10 is used, but a subscript “a” is used as a coordinate value of the coordinate system whose size is enlarged.

生成処理部16は、カメラ12から入力される広角画像10の画像処理に使用する計測マップ38を生成するために、歪曲平面化処理30と、理想平面化処理32と、世界座標化処理34と、マップ生成処理36とを備えている。
歪曲平面化処理30は、前記座標系のそれぞれの座標値について、前記座標関係式20とそれぞれのパラメーターとを使用して、前記広角画像10の画像座標値[Ud, Vd]を歪曲平面座標値[Xcd, Ycd]に変換する。
理想平面化処理32は、同様に、座標関係式20とパラメーターとを使用して、前記歪曲平面座標値[Xcd, Ycd]を理想平面座標値[Xcm, Ycm]に変換する。
世界座標化処理34は、同様に、座標関係式20とパラメーターとを使用して、前記理想平面座標値[Xcm, Ycm]を前記世界座標値[Xwm, Ywm, Zwm]に変換する。
そして、マップ生成処理36は、前記各画像座標値[Ud, Vd]の前記世界座標値[Xwm, Ywm, Zwm]を前記計測マップ38として前記記憶部14に格納する。
The generation processing unit 16 generates a measurement map 38 used for image processing of the wide-angle image 10 input from the camera 12, a distortion planarization process 30, an ideal planarization process 32, a world coordinate conversion process 34, And a map generation process 36.
The distortion flattening process 30 uses the coordinate relational expression 20 and the respective parameters for each coordinate value of the coordinate system to convert the image coordinate values [Ud, Vd] of the wide-angle image 10 into distortion plane coordinate values. Convert to [Xcd, Ycd].
Similarly, the ideal planarization process 32 converts the distorted plane coordinate value [Xcd, Ycd] into an ideal plane coordinate value [Xcm, Ycm] using the coordinate relational expression 20 and the parameters.
Similarly, the world coordinate processing 34 converts the ideal plane coordinate value [Xcm, Ycm] into the world coordinate value [Xwm, Ywm, Zwm] using the coordinate relational expression 20 and parameters.
Then, the map generation process 36 stores the world coordinate values [Xwm, Ywm, Zwm] of the image coordinate values [Ud, Vd] as the measurement map 38 in the storage unit 14.

計測マップ38は、好適には、世界座標系XYZでのY軸の値を仮定しつつ、X計測マップ38A(図10(A))と、Z計測マップ38B(図10(B))とを備えると良い。X計測マップ38Aは、画像座標系UVのU軸と、世界座標系XYZのX軸との対応をV軸の値毎に示す。Z計測マップ38Bは、画像座標系UVのV軸と、世界座標系XYZのZ軸との対応をU軸の値毎に示す。   The measurement map 38 preferably includes an X measurement map 38A (FIG. 10 (A)) and a Z measurement map 38B (FIG. 10 (B)) while assuming the value of the Y axis in the world coordinate system XYZ. It is good to prepare. The X measurement map 38A shows the correspondence between the U axis of the image coordinate system UV and the X axis of the world coordinate system XYZ for each value of the V axis. The Z measurement map 38B indicates the correspondence between the V axis of the image coordinate system UV and the Z axis of the world coordinate system XYZ for each value of the U axis.

図2を参照すると、ピンホールPNを用いたピンホールカメラ・モデルを用いて、世界座標系XYZとカメラ座標系xyzとを対応付けることができる。この2つの座標系の対応付けに用いるパラメーターは、回転を表す外部パラメーターrと、並進を表す外部パラメーターtとである。
画像座標系UV(ピクセル座標系)は、カメラ座標系xyzを中心cとして二次元に投影した座標系であり、理想平面24(イメージ・プレーン)と対応付けられる。理想平面24は、世界座標系XYZを線形に二次元に投影した理想平面座標系XcmYcmの平面である。理想平面座標系XcmYcmと、画像座標系UVとは、カメラ12の内部パラメーターa,cで対応付けられる。内部パラメーターaは線形のレンズ歪みにより定まり、内部パラメーターcは中心位置の定義により定まる。
各パラメーターr,t,aはカメラ12のキャリブレーション(校正)にて求められる。カメラ12のキャリブレ−ションとして、既知の三次元座標と表示された画像平面の座標との関係を公知の最急降下法や勾配法等があり、これらの手法によりパラメーターを求めることができる。
Referring to FIG. 2, the world coordinate system XYZ and the camera coordinate system xyz can be associated with each other using a pinhole camera model using a pinhole PN. The parameters used for the correspondence between the two coordinate systems are an external parameter r representing rotation and an external parameter t representing translation.
The image coordinate system UV (pixel coordinate system) is a coordinate system projected two-dimensionally with the camera coordinate system xyz as the center c, and is associated with the ideal plane 24 (image plane). The ideal plane 24 is a plane of the ideal plane coordinate system XcmYcm obtained by linearly projecting the world coordinate system XYZ in two dimensions. The ideal plane coordinate system XcmYcm and the image coordinate system UV are associated by the internal parameters a and c of the camera 12. The internal parameter a is determined by linear lens distortion, and the internal parameter c is determined by the definition of the center position.
Each parameter r, t, a is obtained by calibration of the camera 12. The calibration of the camera 12 includes a known steepest descent method, a gradient method, and the like for the relationship between the known three-dimensional coordinates and the coordinates of the displayed image plane, and parameters can be obtained by these methods.

図2に示す例では、世界座標系XYZにて座標値[Xwm2, Ywm2, Zwm2]である物体OJの点Mrが、画像座標系UVでの広角画像10に点mとして撮影されている。物体OJは、障害物や、車両等の移動体や、路面GRの輝度変化や、背景である。
そして、図2に示すように、三次元である世界座標系XYZを二次元の画像座標系UVに投影するため、画像座標系での点mは、Mr[Xwm2, Ywm2, Zwm2]ではなく、Mv[Xwm1, Ywm1, Zwm1]である可能性もあり、画像座標系UVの情報のみではMvであるか、それともMrであるのかは判別できない。
In the example shown in FIG. 2, the point Mr of the object OJ having the coordinate value [Xwm2, Ywm2, Zwm2] in the world coordinate system XYZ is photographed as a point m on the wide-angle image 10 in the image coordinate system UV. The object OJ is an obstacle, a moving body such as a vehicle, a luminance change of the road surface GR, and a background.
Then, as shown in FIG. 2, since the three-dimensional world coordinate system XYZ is projected onto the two-dimensional image coordinate system UV, the point m in the image coordinate system is not Mr [Xwm2, Ywm2, Zwm2] Mv [Xwm1, Ywm1, Zwm1] is also possible, and it is not possible to determine whether it is Mv or Mr only by the information of the image coordinate system UV.

図3を参照すると、実施例1ではカメラ12を自車MTの後方に設置し、自車MTの後方の走行環境を撮影する。カメラ12を下向きに傾けて設置するため、カメラ12の光軸を法線とする平面を理想平面24とする。理想平面24には、路面GRから、路面GRに平行で自車MTの車高の高さ(地上高上限48)までの世界座標系XYZの範囲の物体OJが投影される。   Referring to FIG. 3, in the first embodiment, the camera 12 is installed behind the host vehicle MT and the traveling environment behind the host vehicle MT is photographed. In order to install the camera 12 tilted downward, a plane having the normal axis of the optical axis of the camera 12 is defined as an ideal plane 24. An object OJ in the range of the world coordinate system XYZ from the road surface GR to the height of the vehicle MT of the host vehicle MT (upper ground height upper limit 48) is projected onto the ideal plane 24.

図4を参照すると、世界座標系XYZでの物体OJの特徴部分CAは、画像座標系UVにて特徴点CPとなる。レンズ収差が小さい場合には、光軸と特徴部分CAの位置Mr[Xwm2, Ywm2, Zwm2]との成す角AN1は、カメラ12側でも同一角度となり、理想平面24の理想平面座標値Xcmに対応する。しかし、レンズ収差の大きな広角レンズ28を使用した場合、歪みの影響のため、対象の三次元空間座標Mr[Xwm2, Ywm2, Zwm2]とレンズ焦点および画像座標系UVの対応は、直線関係にはならず、光軸との成す角AN2は対象側の成す角AN1より小さくなる。すなわち、理想平面24での理想平面座標値Xcmと比較して、画像座標系UVの内側に歪み、理想平面24を歪曲させた歪曲平面26の歪曲平面座標値Xcdに対応する。この歪曲には、糸巻き型の歪曲と、樽型の歪曲とがある。   Referring to FIG. 4, the characteristic portion CA of the object OJ in the world coordinate system XYZ becomes a characteristic point CP in the image coordinate system UV. When the lens aberration is small, the angle AN1 formed by the optical axis and the position Mr [Xwm2, Ywm2, Zwm2] of the characteristic portion CA is the same angle on the camera 12 side, and corresponds to the ideal plane coordinate value Xcm of the ideal plane 24. To do. However, when the wide-angle lens 28 having a large lens aberration is used, the correspondence between the target three-dimensional spatial coordinates Mr [Xwm2, Ywm2, Zwm2], the lens focus, and the image coordinate system UV is linearly related due to distortion. In other words, the angle AN2 formed with the optical axis is smaller than the angle AN1 formed on the object side. That is, compared with the ideal plane coordinate value Xcm in the ideal plane 24, it corresponds to the distortion plane coordinate value Xcd of the distortion plane 26 which is distorted inside the image coordinate system UV and the ideal plane 24 is distorted. This distortion includes a pincushion distortion and a barrel distortion.

このように、広角レンズ28を有するカメラ12では、広角レンズ28の集光性により、中心側へ屈折した位置に像が投影される。この場合、三角形の相似関係が成立しないので、相似関係を前提として特徴部分CAまでの距離を推定することができない。とはいえ、広角レンズ28の集光性を利用し内側に屈折した直線と画像座標系UVの面と交点に像を映し出すことができるので、同じサイズの撮像素子で、より広範囲の像を撮影することができる。従って、レンズ収差の小さいカメラ12と比較して、同一の撮像範囲をより小さい撮像素子で撮像することができる。   Thus, in the camera 12 having the wide-angle lens 28, an image is projected at a position refracted toward the center side due to the light condensing property of the wide-angle lens 28. In this case, since the similarity relationship of the triangle is not established, the distance to the feature portion CA cannot be estimated on the assumption of the similarity relationship. However, since the image can be projected at the intersection of the straight line refracted inward and the surface of the image coordinate system UV using the light condensing property of the wide-angle lens 28, a wider range of images can be taken with the same size imaging device. can do. Therefore, compared with the camera 12 with a small lens aberration, the same imaging range can be imaged with a smaller imaging device.

図5を参照すると、図5(A)に示す画像座標系UVの広角画像10の特徴点CP1,CP2は、図5(B)に示す歪曲平面座標系XcdYcdと、図5(C)に示す理想平面座標系XcmYcmとを介して、図5(D)に示す世界座標系XYZの特徴部分CA1,CA2と対応付けることができる。   Referring to FIG. 5, the feature points CP1 and CP2 of the wide-angle image 10 of the image coordinate system UV shown in FIG. 5 (A) are shown in the distorted plane coordinate system XcdYcd shown in FIG. 5 (B) and in FIG. 5 (C). Via the ideal plane coordinate system XcmYcm, the feature portions CA1 and CA2 of the world coordinate system XYZ shown in FIG.

図6を参照すると、生成処理部16は、まず、パラメーター群22を読み出す(ステップS1)。パラメーター群22としては、カメラ12のキャリブレーションにより予め定められた外部パラメーターr,tと、内部パラメーターa,cと、関係式パラメーターである式(2)の放射歪曲補正パラメーターkと、式(3)の対数歪曲補正パラメーターpとである。次に、必要に応じて仮定地上高Yconstを設定する(ステップS2)。   Referring to FIG. 6, the generation processing unit 16 first reads the parameter group 22 (step S1). The parameter group 22 includes external parameters r and t determined in advance by calibration of the camera 12, internal parameters a and c, a radial distortion correction parameter k in Expression (2) that is a relational expression parameter, and Expression (3). Logarithmic distortion correction parameter p). Next, an assumed ground height Yconst is set as necessary (step S2).

生成処理部16は、さらに、次式(1)を使用して、図5(A)に示す前記広角画像10の画像座標値[Ud, Vd]を、図5(B)に示す歪曲平面座標値[Xcd, Ycd]に変換する(歪曲平面化処理30,ステップS3)。この歪曲平面化処理30は、広角レンズ28による歪みを補正せずに、歪曲している画像座標値[Ud, Vd]を歪曲させたまま歪曲平面26に投影する処理である。例えば、図5に示す特徴点CP1[Ud1, Vd1]を歪曲平面座標値[Xcd1, Ycd1]に変換し、特徴点CP2[Ud2, Vd2]を歪曲平面座標値[Xcd2, Ycd2]に変換する。
次式(1)の内部パラメーターaは広角レンズ28の微少な線形の歪みに応じて予め定められた値であり、内部パラメーターcは画像座標系UVの中心位置[Cx, Cy]に応じた値である。
The generation processing unit 16 further uses the following equation (1) to convert the image coordinate values [Ud, Vd] of the wide-angle image 10 shown in FIG. 5A into the distorted plane coordinates shown in FIG. Conversion into values [Xcd, Ycd] (distortion planarization process 30, step S3). The distortion flattening process 30 is a process of projecting the distorted image coordinate values [Ud, Vd] onto the distortion plane 26 without correcting the distortion caused by the wide-angle lens 28. For example, the feature point CP1 [Ud1, Vd1] shown in FIG. 5 is converted into the distorted plane coordinate value [Xcd1, Ycd1], and the feature point CP2 [Ud2, Vd2] is converted into the distorted plane coordinate value [Xcd2, Ycd2].
The internal parameter a in the following equation (1) is a value determined in advance according to a slight linear distortion of the wide-angle lens 28, and the internal parameter c is a value according to the center position [Cx, Cy] of the image coordinate system UV. It is.

-1: 逆行列であることを示す
[Ud,Vd]: 広角画像10での画像座標値であり、物体OJを撮像した画像座標系UVでの画素位置(二次元平面)
[Xcd,Ycd]: 歪曲平面座標系XcdYcd(歪みがあるイメージ・プレーン)での歪曲平面座標値(二次元平面)
ann: カメラ12の内部パラメーターで線形歪み
Cxd, Cyd: 広角画像10の画像中心
-1: Indicates an inverse matrix
[Ud, Vd]: Image coordinate value in the wide-angle image 10, pixel position (two-dimensional plane) in the image coordinate system UV that captures the object OJ
[Xcd, Ycd]: Distorted plane coordinate value (two-dimensional plane) in the distorted plane coordinate system XcdYcd (image plane with distortion)
a nn : Linear distortion with internal parameters of camera 12
Cxd, Cyd: Image center of wide-angle image 10

ステップS3に続いて、生成処理部16は、次式(2)又は次式(3)を使用して、図5(B)に示す歪曲平面座標値[Xcd, Ycd]を、図5(C)に示す理想平面座標値[Xmc, Ymc]に変換する(理想平面化処理32,ステップS4)。例えば、式(3)を用いて歪曲平面座標値[Xcd1, Ycd1]を理想平面座標値[Xcm1, Ycm1]に変換し、式(2)を用いて歪曲平面座標値[Xcd2, Ycd2]を理想平面座標値[Xcm2, Ycm2]に変換する。
次式(2)及び(3)にて、Rcmは歪曲平面座標系XcdYcdの座標値[Xcd, Ycd]の半径である。関係式パラメーターは、式(2)では放射歪曲補正パラメーターkであり、式(3)では対数歪曲補正パラメーターpである。
Subsequent to step S3, the generation processing unit 16 uses the following equation (2) or the following equation (3) to obtain the distortion plane coordinate values [Xcd, Ycd] shown in FIG. ) To the ideal plane coordinate value [Xmc, Ymc] (ideal plane processing 32, step S4). For example, the distortion plane coordinate value [Xcd1, Ycd1] is converted to the ideal plane coordinate value [Xcm1, Ycm1] using the equation (3), and the distortion plane coordinate value [Xcd2, Ycd2] is ideal using the equation (2). Convert to plane coordinate value [Xcm2, Ycm2].
In the following equations (2) and (3), Rcm is the radius of the coordinate value [Xcd, Ycd] of the distorted plane coordinate system XcdYcd. The relational expression parameter is the radial distortion correction parameter k in the expression (2), and the logarithmic distortion correction parameter p in the expression (3).

[Xcm,Ycm]: 理想平面座標系XcmYcm(歪み無しのイメージ・プレーン)での理想平面座標値(二次元平面)
Rcm: 歪曲平面座標系XcdYcdの座標値[Xcd, Ycd]の半径
Rck: 歪曲平面座標系XcdYcdでの校正円Rck(の半径)
kn: 放射歪曲補正パラメーター
pn: 対数歪曲補正パラメーター
[Xcm, Ycm]: Ideal plane coordinate value (two-dimensional plane) in the ideal plane coordinate system XcmYcm (undistorted image plane)
Rcm: radius of the coordinate value [Xcd, Ycd] of the distorted plane coordinate system XcdYcd
Rck: calibration circle Rck (radius) in the distorted plane coordinate system XcdYcd
k n : Radial distortion correction parameter
p n : Logarithmic distortion correction parameter

式の番号を示す数字にa,b,c等のアルファベットが付されている式について、その式の番号を示す数字で言及する際には、アルファベットで識別するすべての式を含む。例えば、式(2)というときには、式(2a)と式(2b)とを含む。   When an expression such as “a”, “b”, “c”, or the like is added to a number indicating an expression number, the expression indicating the expression number includes all expressions identified by the alphabet. For example, the expression (2) includes expressions (2a) and (2b).

記憶部14は、関係式パラメーターk,pを記憶しても良いし、式(2)及び式(3)の右辺の分母の値を記憶しておくことで、当該関係式パラメーターを間接的に記憶するようにしても良い。
式(2)及び式(3)の右辺の分母は、事前の準備として、それぞれRcmの特性方程式(後述式(14)及び式(19))を立てて、ラゲールの解法等によりRcmについて解いておき、各式の分母の値を特定しておくことができる。
The storage unit 14 may store the relational expression parameters k and p, or indirectly store the relational expression parameter by storing the value of the denominator on the right side of the expressions (2) and (3). You may make it memorize.
The denominators on the right side of Equation (2) and Equation (3) are prepared as Rcm characteristic equations (Equation (14) and Equation (19) described later) respectively, and solved for Rcm using Laguerre's method, etc. The denominator value of each equation can be specified.

Rckは式(2)と式(3)とを切り替えるしきい値となる値で、歪曲平面座標系XcdYcdで予め定められた校正円Rckの半径である。図5に示すように、この校正円Rckの内側の座標値[Xd2, Yd2]については式(2)を使用し、校正円Rckの外側の座標値[Xd1, Yd1]については式(3)を使用すると良い(切替処理42)。   Rck is a value serving as a threshold value for switching between Expression (2) and Expression (3), and is the radius of the calibration circle Rck predetermined in the distorted plane coordinate system XcdYcd. As shown in FIG. 5, Equation (2) is used for the coordinate values [Xd2, Yd2] inside the calibration circle Rck, and Equation (3) is used for the coordinate values [Xd1, Yd1] outside the calibration circle Rck. Is preferably used (switching process 42).

また、式(2)及び式(3)に変えて、歪曲を補正する別の算式を用いても良いし、校正用の板等を撮影して比較することで、理想平面24の座標と歪曲平面26の座標とを対応付けるようにしても良い。好ましくは、校正円Rckと式(3)とを使用して、広角画像10を幅広く使用できるようにすると良い。   Further, instead of the equations (2) and (3), another equation for correcting the distortion may be used, and the coordinates of the ideal plane 24 and the distortion can be obtained by photographing and comparing calibration plates. The coordinates of the plane 26 may be associated with each other. Preferably, the wide-angle image 10 can be widely used by using the calibration circle Rck and the equation (3).

ステップS4に続いて、生成処理部16は、次式(4)を使用して、図5(C)に示す前記理想平面座標値[Xcm, Ycm]を図5(D)に示す前記世界座標値[Xwm, Ywm, Zwm]に変換する(世界座標化処理34,ステップS5)。例えば、理想平面座標値[Xcm1, Ycm1]を世界座標値[Xwm1, Ywm1, Zwm1]に変換する。仮定地上高Yconstを定めている際には、世界座標値[Xwm1, Yconst, Zwm1]となる。   Subsequent to step S4, the generation processing unit 16 uses the following equation (4) to convert the ideal plane coordinate values [Xcm, Ycm] shown in FIG. 5C into the world coordinates shown in FIG. Conversion into values [Xwm, Ywm, Zwm] (world coordinate processing 34, step S5). For example, ideal plane coordinate values [Xcm1, Ycm1] are converted into world coordinate values [Xwm1, Ywm1, Zwm1]. When the assumed ground height Yconst is determined, the world coordinate values [Xwm1, Yconst, Zwm1] are used.

次式(4)での外部パラメーターtはカメラ座標系xyzと世界座標系XYZとの並進に応じて予め定められた値で、外部パラメーターrは回転に応じて予め定められた値である。
媒介変数sは、理想平面24と世界座標系XYZの相似関係に応じた理想平面24の長さと世界座標系XYZの長さを対応させる比例定数である。
仮定地上高Yconstは、二次元の画像座標値[Ud, Vd]から三次元の世界座標値[Xwm, Ywm, Zwm]を求めるために、予め仮定した物体OJの高さである。すなわち、次式(4)に示す例では、理想平面座標値[Xcm, Ycm]から、世界座標値のXwmとZwmとを算出する。
The external parameter t in the following equation (4) is a value determined in advance according to the translation between the camera coordinate system xyz and the world coordinate system XYZ, and the external parameter r is a value determined in advance according to the rotation.
The parameter s is a proportional constant that associates the length of the ideal plane 24 corresponding to the similarity between the ideal plane 24 and the world coordinate system XYZ with the length of the world coordinate system XYZ.
The assumed ground height Yconst is the height of the object OJ assumed in advance in order to obtain the three-dimensional world coordinate values [Xwm, Ywm, Zwm] from the two-dimensional image coordinate values [Ud, Vd]. That is, in the example shown in the following equation (4), Xwm and Zwm of the world coordinate values are calculated from the ideal plane coordinate values [Xcm, Ycm].

-1: 逆行列であることを示す
rnn, tn: カメラ12の外部パラメーターでrは回転成分、tは並進成分
[Xwm, Yconst, Zwm]: 物体OJの世界座標系XYZでの世界座標値(三次元空間)
Yconst: 仮定地上高
s: 媒介変数
-1: Indicates an inverse matrix
r nn , t n : External parameters of camera 12, r is rotation component, t is translation component
[Xwm, Yconst, Zwm]: World coordinate value of the object OJ in the world coordinate system XYZ (three-dimensional space)
Yconst: Assumed ground clearance
s: Parameter

ステップS5に続いて、生成処理部16は、前記各画像座標値[Ud, Vd]の前記世界座標値[Xwm, Ywm, Zwm]を前記計測マップ38として前記記憶部14に格納する(マップ生成処理36,ステップS6)。この計測マップ38は、画像座標系の広角画像10のすべての画素について対応する世界座標値[Xwm, Zwm]を対応させた全体計測マップ50(図示せず)である。世界座標系XYZで測定枠44を定義する例では、画像座標値[Ud, Vd]毎に、対応する世界座標値[Xwm, Zwm]が測定枠44内であるか否かを判定して(ステップS7)、測定枠計測マップ52を生成する。   Subsequent to step S5, the generation processing unit 16 stores the world coordinate values [Xwm, Ywm, Zwm] of the image coordinate values [Ud, Vd] in the storage unit 14 as the measurement map 38 (map generation). Process 36, step S6). This measurement map 38 is an overall measurement map 50 (not shown) in which the corresponding world coordinate values [Xwm, Zwm] are associated with all the pixels of the wide-angle image 10 in the image coordinate system. In the example of defining the measurement frame 44 in the world coordinate system XYZ, it is determined for each image coordinate value [Ud, Vd] whether or not the corresponding world coordinate value [Xwm, Zwm] is within the measurement frame 44 ( Step S7), a measurement frame measurement map 52 is generated.

・1.1 歪曲平面と理想平面の効果
上述のように、理想平面24と歪曲平面26とを使用することで、広角画像10の画像座標値[Ud, Vd]を世界座標系XYZの世界座標値[Xwm, Ywm, Zwm]に対応付けることができる。広角画像10のまま画像処理をした処理結果について、その画素位置[Ud, Vd]を特定すると、計測マップ38を参照することで、世界座標系XYZでの世界座標値[Xwm, Ywm, Zwm]を簡単に特定することができる。
特に、この計測マップ38を生成しておくと、広角画像10の画素毎に世界座標値[Xwm, Ywm, Zwm]を特定することができ、広角画像10の視野の広さを活かしつつ、広角画像10を三次元の測定に利用することができる。さらに、計測マップ38の利用する前提で、広角画像10を補正せずに画像処理の対象とすることができ、オプティカルフローの抽出処理等で必要となるマッチングの精度を向上させることができる。
1.1 Effects of the distortion plane and the ideal plane As described above, by using the ideal plane 24 and the distortion plane 26, the image coordinate values [Ud, Vd] of the wide-angle image 10 are converted into the world coordinate values of the world coordinate system XYZ [ Xwm, Ywm, Zwm]. When the pixel position [Ud, Vd] is specified for the processing result obtained by performing the image processing with the wide-angle image 10, the world coordinate value [Xwm, Ywm, Zwm] in the world coordinate system XYZ is referred to by referring to the measurement map 38. Can be easily identified.
In particular, if the measurement map 38 is generated, the world coordinate values [Xwm, Ywm, Zwm] can be specified for each pixel of the wide-angle image 10, and the wide-angle image 10 can be utilized while taking advantage of the wide field of view. The image 10 can be used for three-dimensional measurement. Furthermore, on the premise that the measurement map 38 is used, the wide-angle image 10 can be subjected to image processing without correction, and the matching accuracy required for the optical flow extraction processing or the like can be improved.

<1.2 仮定地上高毎の計測マップ>
ステレオカメラ等の複眼のカメラ12では、同一の対象物についの2つの二次元画像から三次元空間の情報を再現することができる。しかし、単眼のカメラ12では、1つの二次元画像から三次元空間の情報を再現することができず、例えば、奥行き方向に関する情報を特定することができない。
このため、走行環境の確認を単眼のカメラ12で行うには、対象となる物体OJが路面GRの上に接地しているもの、あるいは後続車のバンパーやタイヤの高さにある特徴部分CAに焦点を絞り、路面GRからの高さYが既知であるものと定義すると良い。
この例では、図1に示す前記世界座標化処理34が、前記世界座標系XYZでの物体OJの特徴部分CAの仮定地上高Yconstを予め設定して、前記理想平面座標値[Xcm, Ycm]を前記世界座標値[Xwm, Yconst, Zwm]に変換する仮定地上高処理40を備えると良い。
<1.2 Measurement map for each assumed ground height>
The compound eye camera 12 such as a stereo camera can reproduce information in a three-dimensional space from two two-dimensional images of the same object. However, the monocular camera 12 cannot reproduce the information of the three-dimensional space from one two-dimensional image, and cannot specify information about the depth direction, for example.
For this reason, in order to check the driving environment with the monocular camera 12, the object OJ that is the target is grounded on the road surface GR, or the feature part CA at the bumper or tire height of the following vehicle. It may be defined that the focus is narrowed and the height Y from the road surface GR is known.
In this example, the world coordinate processing 34 shown in FIG. 1 presets an assumed ground height Yconst of the characteristic portion CA of the object OJ in the world coordinate system XYZ, and the ideal plane coordinate values [Xcm, Ycm] Is assumed to be provided with a hypothetical ground height processing 40 for converting the value to the world coordinate value [Xwm, Yconst, Zwm].

再度図2を参照すると、単眼のカメラ12で撮影した広角画像10の点m[Ud, Vd]では、Mv[Xwm1, Ywm1, Zwm1]と、Mr[Xwm2, Ywm2, Zwm2]との違いを判定できない。すなわち、[Xwm,Ywm,Zwm]の3つの値を[Ud,Vd]の2つの値から求めることができない。この点、Mrの高さYを既知(例:Y=接地0、Y=タイヤ高さ等々)とすると、式(4)の媒介変数sを求めることができる。そして、仮定地上高処理40は、残りの[Xwm,Zwm]の2つの値を、[Ud,Vd,Yconst]より得ることができる。   Referring to FIG. 2 again, at the point m [Ud, Vd] of the wide-angle image 10 taken by the monocular camera 12, the difference between Mv [Xwm1, Ywm1, Zwm1] and Mr [Xwm2, Ywm2, Zwm2] is determined. Can not. That is, the three values [Xwm, Ywm, Zwm] cannot be obtained from the two values [Ud, Vd]. In this regard, if the Mr height Y is known (eg, Y = ground 0, Y = tire height, etc.), the parameter s in equation (4) can be obtained. Then, the assumed ground height processing 40 can obtain the remaining two values of [Xwm, Zwm] from [Ud, Vd, Yconst].

再度図3を参照すると、仮定地上高Yconstは、測定目的に応じて定めることができ、例えば、Yconst1の高さとしても良いし、Yconst2の高さとしても良い。   Referring to FIG. 3 again, the assumed ground height Yconst can be determined according to the measurement purpose, and may be, for example, the height of Yconst1 or the height of Yconst2.

・1.2 仮定地上高毎の計測マップの効果
上述のように、仮定地上高Yconstを設定し、2つの値から3つの値を求めるために仮定する値を、世界座標系XYZでの高さとしたこと、二次元の情報から三次元の情報を実用的に再現し、そして、仮定地上高Yconstの高さを工夫することで、物体OJの特徴的な特徴部分CAを予め特定することができ、すると、例えば、オプティカルフローの抽出処理等に際して、有効な情報を抽出する効率が高くなる。
・ 1.2 Effect of measurement map for each assumed ground height As described above, the assumed ground height Yconst is set, and the value assumed to obtain three values from two values is the height in the world coordinate system XYZ. The characteristic feature CA of the object OJ can be specified in advance by practically reproducing 3D information from 2D information and devising the height of the assumed ground height Yconst. For example, in the process of extracting an optical flow, the efficiency of extracting effective information is increased.

<1.3 校正円と補正式>
図5(B)に示す例では、校正円Rckの内側と外側とで使用する補正式を切り替えていた。この切替処理42を説明する。
この例では、前記記憶部14が、前記歪曲平面座標系XcdYcdと前記理想平面座標系XcmYcmとの前記座標関係式20として、放射歪曲を補正する放射歪曲補正式(2)と、対数歪曲を補正する対数歪曲補正式(3)とを有している。放射歪曲補正式(2)は、上述した式(2a)及び式(2b)であり、対数歪曲補正式(3)は、上述した式(3a)及び(3b)である。
そして、図1に示す前記理想平面化処理32が、切替処理42を備えている。この切替処理42は、図5(B)に示すように、前記理想平面座標系XcmYcm又は前記歪曲平面座標系XcdYcdでの予め定められた校正円Rckの内部については前記放射歪曲補正式2を使用する。一方、切替処理42は、当該校正円Rckの外部については前記対数歪曲補正式3を使用する。この2つの式を校正円Rckの内側と外側とで切り替えつつ、前記歪曲平面座標値[Xcd, Ycd]を前記理想平面座標値[Xcm, Ycm]に変換する。
<1.3 Calibration circle and correction formula>
In the example shown in FIG. 5B, the correction formula used between the inside and outside of the calibration circle Rck is switched. This switching process 42 will be described.
In this example, the storage unit 14 corrects a radial distortion correction equation (2) for correcting a radial distortion as the coordinate relational expression 20 between the distortion plane coordinate system XcdYcd and the ideal plane coordinate system XcmYcm, and a logarithmic distortion. Logarithmic distortion correction equation (3). The radial distortion correction equation (2) is the above-described equations (2a) and (2b), and the logarithmic distortion correction equation (3) is the above-described equations (3a) and (3b).
The ideal planarization process 32 shown in FIG. 1 includes a switching process 42. As shown in FIG. 5B, the switching process 42 uses the radial distortion correction formula 2 for the inside of a predetermined calibration circle Rck in the ideal plane coordinate system XcmYcm or the distorted plane coordinate system XcdYcd. To do. On the other hand, the switching process 42 uses the logarithmic distortion correction formula 3 outside the calibration circle Rck. The distorted plane coordinate value [Xcd, Ycd] is converted into the ideal plane coordinate value [Xcm, Ycm] while switching these two formulas between the inside and outside of the calibration circle Rck.

校正円Rckは、理想平面座標系XcmYcmで定義しても、歪曲平面座標系XcdYcdで定義しても、どちらでも良い。切替処理42の計算上は歪曲平面座標系XcdYcdで定義すると簡便である。また、校正円Rckは、厳密な円とせず、多角形のコーナーに丸みを付与した形状としても良い。これは、どのような補正式の組み合わせを採用するかに依存して定まる。また、理想平面化処理32の計算量としては、校正円Rckを単純な円とすると計算量を低減できて好ましい。   The calibration circle Rck may be defined by the ideal plane coordinate system XcmYcm or by the distorted plane coordinate system XcdYcd. In the calculation of the switching process 42, it is easy to define it in the distorted plane coordinate system XcdYcd. Further, the calibration circle Rck may not be a strict circle, but may be a shape with rounded polygon corners. This is determined depending on what combination of correction equations is used. As the calculation amount of the ideal planarization process 32, it is preferable that the calibration circle Rck is a simple circle because the calculation amount can be reduced.

図7(A)は、画像座標系UVの広角画像10であり、図7(B)は、式(2)で補正した 放射歪曲補正画像11Aの一例を示し、図7(C)は式(2)及び式(3)を使用して補正した対数歪曲補正画像11Bの一例を示す。
校正円Rckは、カメラ12のキャリブレーション時の校正点に対し、誤差が小さくなる位置を求め、値を設定する。図7(B)に示す放射歪曲補正画像11Aは、点線で示す範囲でほぼ補正され、理想平面24と重ね合わせることができる。しかし、図7(B)に示す範囲では、広角画像10の視野の広さという利点を活用することができない。一方、図7(C)に示す対数補正画像では、理想平面24と重ね合わせることのできる範囲が大幅に広がる。
FIG. 7A shows a wide-angle image 10 of the image coordinate system UV, FIG. 7B shows an example of a radial distortion corrected image 11A corrected by the equation (2), and FIG. An example of the logarithmic distortion corrected image 11B corrected using 2) and Equation (3) is shown.
For the calibration circle Rck, a position where the error becomes small with respect to the calibration point at the time of calibration of the camera 12 is obtained and a value is set. The radial distortion correction image 11A shown in FIG. 7B is substantially corrected within the range indicated by the dotted line and can be superimposed on the ideal plane 24. However, in the range shown in FIG. 7B, the advantage of wide field of view of the wide-angle image 10 cannot be utilized. On the other hand, in the logarithmic correction image shown in FIG. 7C, the range that can be overlapped with the ideal plane 24 is greatly expanded.

以下、式(2)及び式(3)を校正円Rckで切り替えることを前提として、上述した式(1)から式(4)を導出し、さらに、式(2)及び式(3)の右辺分母の解法を説明する。
まず、レンズ収差の小さいカメラ12で撮影した場合の二次元の画像座標系UVと三次元の世界座標系XYZとの対応関係を、歪みのない理想平面座標系XcmYcmを介して、次式(5a)及び(6)に示す。各パラメーターr,aは、上述のようにカメラ12のキャリブレーションにより求める。
Hereinafter, on the premise that the equations (2) and (3) are switched with the calibration circle Rck, the equation (4) is derived from the above-described equation (1), and the right side of the equations (2) and (3) is further derived. Describe the denominator solution.
First, the correspondence between the two-dimensional image coordinate system UV and the three-dimensional world coordinate system XYZ when the image is taken with the camera 12 having a small lens aberration is expressed by the following equation (5a) via an ideal plane coordinate system XcmYcm without distortion. ) And (6). The parameters r and a are obtained by calibration of the camera 12 as described above.

[Xwm,Ywm,Zwm]: 物体OJの世界座標系XYZでの世界座標値(三次元空間)
[Xcm,Ycm]: 理想平面座標系XcmYcmでの理想平面座標値(二次元平面)
[Ud,Vd]: 物体OJを撮像した画像座標系UVでの画像座標値(二次元平面)
rnn, tn: カメラ12の外部パラメーターでrは回転成分、tは並進成分
ann: カメラ12の内部パラメーターで線形歪み
Cxd, Cyd: カメラ12の内部パラメーターで画像中心
s: 媒介変数
[Xwm, Ywm, Zwm]: World coordinate value of object OJ in world coordinate system XYZ (three-dimensional space)
[Xcm, Ycm]: Ideal plane coordinate value in the ideal plane coordinate system XcmYcm (two-dimensional plane)
[Ud, Vd]: Image coordinate value (two-dimensional plane) in the image coordinate system UV that captures the object OJ
r nn , t n : External parameters of camera 12, r is rotation component, t is translation component
a nn : Linear distortion with internal parameters of camera 12
Cxd, Cyd: Image center with camera 12 internal parameters
s: Parameter

再度図4を参照すると、広角レンズ28の集光性により、中心側へ屈折した位置に像が投影されると、三角形の相似関係が成立せず、相似関係を前提として特徴部分CAまでの距離を推定することができない。従って、通常の方法では、式(5)の媒介変数sを求めることができず、世界座標系XYZでの位置(距離)の推定が出来ない。
このように、レンズ収差の大きいカメラ12では撮影した画像に歪み(歪曲)が発生する。Rを次式(7)で定義すると、発生する歪みと画像の関係は、Tsai(ツァイ)等の手法にて一般に次の近似式(8)で表現され、線形な画像と歪を持つ非線形な画像の相関を求めることができる。なお、近似式(8)はR2の3次項で打ち切った。
式(8)により、理想平面座標系XcmYcmと歪曲平面座標系XcdYcdとを関連づけることができる。さらに、歪曲平面座標系XcdYcdと画像座標系UVとは次式(9)で表される。
Referring to FIG. 4 again, when the image is projected at a position refracted toward the center due to the light condensing property of the wide-angle lens 28, the triangular similarity is not established, and the distance to the characteristic portion CA on the assumption of the similarity Cannot be estimated. Therefore, in the normal method, the parameter s in Expression (5) cannot be obtained, and the position (distance) in the world coordinate system XYZ cannot be estimated.
Thus, in the camera 12 having a large lens aberration, distortion (distortion) occurs in the captured image. When R is defined by the following equation (7), the relationship between the generated distortion and the image is generally expressed by the following approximate equation (8) by a technique such as Tsai, and is a nonlinear image having a linear image and distortion. Correlation of images can be obtained. Incidentally, the approximate expression (8) were censored in third order terms of R 2.
By equation (8), the ideal plane coordinate system XcmYcm and the distorted plane coordinate system XcdYcd can be associated. Further, the distorted plane coordinate system XcdYcd and the image coordinate system UV are expressed by the following equation (9).

[Xcd,Ycd]: 歪曲平面座標系XcdYcd(歪みがあるイメージ・プレーン)での歪曲平面座標値(二次元平面)
Rcm: 理想平面座標系XcmYcmの座標値[Xcm, Ycm]の半径
Rck: 歪曲平面座標系XcdYcdでの校正円Rck(の半径)
kn: 放射歪曲補正パラメーター
添字Tは行列の転置を指す。
[Xcd, Ycd]: Distorted plane coordinate value (two-dimensional plane) in the distorted plane coordinate system XcdYcd (image plane with distortion)
Rcm: Radius of coordinate value [Xcm, Ycm] of ideal plane coordinate system XcmYcm
Rck: calibration circle Rck (radius) in the distorted plane coordinate system XcdYcd
k n : Radial distortion correction parameter The subscript T indicates transposition of the matrix.

式(8)から、式(2)を導出することができる。
この式(8)では、カメラ12の視野が拡大されレンズ収差が許容以上に大きくなると、近似補正に関しては非線形の要素が強く、画像中心[cx, cy]より離れた画素位置で先の近似式(8)が成立しない。
From equation (8), equation (2) can be derived.
In this equation (8), when the field of view of the camera 12 is enlarged and the lens aberration becomes larger than the tolerance, the non-linear element is strong with respect to the approximate correction, and the preceding approximate equation at the pixel position away from the image center [cx, cy]. (8) does not hold.

レンズ収差がTsaiの近似式の許容を上回った場合の歪みを含む画像は、図7(B)に示す放射歪曲補正画像11Aとなる。図7(B)に示すように、画像中心付近の歪みは補正されるが、画面の中心から外れ枠外に近づくにつれ画像は理想平面24に補正するのが困難となる。このような状態では、後方の視界に対し画面の中心に近い限られた範囲でしか接近する物体OJ(後続車)の検知ができない。よって広範囲の安全確認を目的に導入した広角のカメラ12であっても、1台では全視界で安全確認を行うことが難しい。   An image including distortion when the lens aberration exceeds the tolerance of the approximate expression of Tsai is a radial distortion corrected image 11A shown in FIG. As shown in FIG. 7B, the distortion near the center of the image is corrected, but it becomes difficult to correct the image to the ideal plane 24 as it moves away from the center of the screen and out of the frame. In such a state, it is possible to detect an object OJ (following vehicle) that approaches the rear view only in a limited range close to the center of the screen. Therefore, even with the wide-angle camera 12 introduced for the purpose of confirming a wide range of safety, it is difficult to perform safety confirmation with a single camera in all fields of view.

出願人は、このようなレンズ収差の大きなカメラ12による画像の取り扱いについて、画像中心から離れた位置に関する非線形部分の補正のために、式(8)の歪み近似式に対し、Rcm2 < Rck2 の領域と Rcm2 ≧ Rck2 の領域で演算式を切り分けて補正を行う次式(10)を提案している。この領域を分けた外側向けの近似式(10)は、画面中心より離れた位置で求めた校正用の実測データをベースに、対数式を基本としている。 The applicant deals with Rcm 2 <Rck 2 with respect to the distortion approximate expression of Expression (8) in order to correct the nonlinear part regarding the position away from the center of the image with respect to the handling of the image by the camera 12 having a large lens aberration. The following equation (10) is proposed in which the arithmetic expression is divided into a region of Rcm 2 ≧ Rck 2 and correction is performed. The approximate expression (10) for the outside divided into these areas is based on a logarithmic expression based on actual measurement data for calibration obtained at a position away from the center of the screen.

pn: 対数歪曲補正パラメーター p n : Logarithmic distortion correction parameter

この式(10)から、式(3)を導出することができる。
そして、切替処理42は、次のようにRcmの値に応じて算式を切り分ける。
Rcm2 < Rck2 式(2)
Rcm2 ≧ Rck2 式(3)
この補正式を導入し近似式を切り分ける作業により、歪みをもつ広角画像10は、図7(C)に示すように補正変換され対数歪曲補正画像11Bとなる。歪みを含む画像の補正法は他にもいくつか提案されているが、このように求めた補正画面は線形な画像に近似したものであるため一般的な線形の画像空間とほぼ同等に取り扱うことができ、二次元の画像平面と三次元空間についてカメラ12の視野全域で対応をとることが可能である。
From this equation (10), equation (3) can be derived.
Then, the switching process 42 cuts the formula according to the value of Rcm as follows.
Rcm 2 <Rck 2 formula (2)
Rcm 2 ≧ Rck 2 formula (3)
As a result of introducing this correction formula and dividing the approximate formula, the wide-angle image 10 having distortion is corrected and converted into a logarithmic distortion corrected image 11B as shown in FIG. 7C. Several other correction methods for images containing distortion have been proposed, but the correction screen obtained in this way approximates a linear image, so it should be handled almost the same as a general linear image space. The two-dimensional image plane and the three-dimensional space can be handled in the entire field of view of the camera 12.

式(5a)のYをYconstとすると、式(5b)となる。これを変換すると、次式(4)を導出することができる。この式(4)は、世界座標化処理34が使用する算式である。   When Y in Expression (5a) is Yconst, Expression (5b) is obtained. When this is converted, the following equation (4) can be derived. This equation (4) is an equation used by the world coordinate processing 34.

添字の-1は逆行列であることを示す。   The subscript -1 indicates an inverse matrix.

次に、Rcm2 < Rck2 での近似について、画像座標値[Ud, Vd]から計測マップ38に記録する三次元空間の世界座標値[Xwm, Ywm, Zwm]を求める。
式(7)及び式(8)から、次式(11)及び次式(12)の関係が成立する。
Next, for the approximation with Rcm 2 <Rck 2 , the world coordinate values [Xwm, Ywm, Zwm] of the three-dimensional space recorded in the measurement map 38 are obtained from the image coordinate values [Ud, Vd].
From the equations (7) and (8), the following equations (11) and (12) are established.

また、画像座標値[Ud, Vd]は、式(9)の関係から歪曲平面座標値[Xcd, Ycd]に基づいて求めることができる。よって、式(7)と、式(9)との関係から、Xcd,Ycdを[Ud,Vd]で置き換えることができる。すなわち ann, cn はキャリブレーションより取得済みの既知の値であるので次式(13)が成り立つ。 Further, the image coordinate value [Ud, Vd] can be obtained based on the distortion plane coordinate value [Xcd, Ycd] from the relationship of the equation (9). Therefore, Xcd and Ycd can be replaced with [Ud, Vd] from the relationship between Expression (7) and Expression (9). That a nn, c n by the following equation (13) holds because it is known values already obtained from the calibration.

f-1(ann, cn)はf(ann, cn)の逆行列である。 f −1 (a nn , c n ) is an inverse matrix of f (a nn , c n ).

この式(13)により、式(1)を導出することができる。
式(13)のうち右辺左辺で等しいZ成分は共通項として無視できるので、X, Y成分に着目し二次元ベクトルで次式(14)のようなRcmに関する特性方程式を立てる。また、f(ann, cn)はアフィン変換を示すのでその逆行列は次式(15)となり、式(13)のZ成分は左辺右辺とも1となり、共通項として無視できる。従って、Rcmについて求める特性方程式はX,Y成分に着目した式(14)を使用できる。
From this equation (13), equation (1) can be derived.
In the equation (13), the same Z component on the right side and the left side can be ignored as a common term. Therefore, a characteristic equation relating to Rcm like the following equation (14) is established with a two-dimensional vector by paying attention to the X and Y components. Since f (a nn , c n ) indicates affine transformation, its inverse matrix is given by the following equation (15), and the Z component of equation (13) is 1 on the right side of the left side and can be ignored as a common term. Therefore, the equation (14) focusing on the X and Y components can be used as the characteristic equation for Rcm.

式(14)に示す特性方程式は通常五次元以上の方程式となる。この方程式をラゲールの解法(あるいはコンパニオン行列の固有値解法)等の手法でRcmについて解く。
なお、特性方程式は通常五次元以上の方程式となる。式(8)では、Tsaiの歪みの近似方程式で半径方向の歪み(放射)歪みをモデル化している。このモデルが精度よく広角レンズ28の歪みを近似するには、半径方向Rcm2の二乗以上、すなわちRcmの四乗以上の次数が望ましいと考えられている。仮に、Rcmの二乗の次数で近似式を打ち切ったとしても、式(8)に従った計算を行えばRcmを求める方程式の次数はRcm2 x(1+k1Rcm22 でRcmの六乗となる。
The characteristic equation shown in Equation (14) is usually an equation of five dimensions or more. This equation is solved for Rcm by a method such as Laguerre's solution (or eigenvalue solution of the companion matrix).
The characteristic equation is usually an equation of five dimensions or more. In equation (8), radial distortion (radiation) distortion is modeled by Tsai's approximate equation of distortion. In order for this model to accurately approximate the distortion of the wide-angle lens 28, it is considered desirable to have an order greater than or equal to the square of the radial direction Rcm 2 , that is, the fourth or greater of Rcm. Even if the approximate expression is cut off by the square of Rcm, if the calculation according to equation (8) is performed, the degree of the equation for obtaining Rcm is Rcm 2 x (1 + k 1 Rcm 2 ) 2 and Rcm is 6 To the power.

そして、一般に五次元以上の方程式では解が反復法と呼ばれる計算法でなければ求まらないことが知られている。但し反復法では、解が収束するか規定回数で打ち切るまで計算処理を繰り返すため、解の精度を確保するためには、その収束打ち切りの回数の上限を大き目に確保する必要が生じる。なお、動画を扱う画像処理で、全画素単位でこれらの処理をリアルタイムに実行することは不可能に近い。   In general, it is known that an equation having five or more dimensions can be obtained only by a calculation method called an iterative method. However, in the iterative method, the calculation process is repeated until the solution converges or is terminated a predetermined number of times. Therefore, in order to ensure the accuracy of the solution, it is necessary to ensure a large upper limit of the number of convergence terminations. In image processing that handles moving images, it is almost impossible to execute these processes in real time in units of all pixels.

そして、求めたRcmを使用すると{1+k1Rcm2+k2Rcm4+k3Rcm6}の値を特定できるので、式(8)から理想座標値[Xcm, Ycm]と歪曲座標値[Xcd, Ycd]の関係を数式化でき、式(2)の右辺の分母を特定することができる。
また式(13)より[Xcd, Ycd]を[Ud, Vd]で置き換えることで[Xcm, Ycm]と[Ud, Vd]の関係を数式化できる。
以下、この数式化した関係をXcm=gx[Ud,Vd]、Ycm=gy[Ud,Vd]と表す。
Then, it is possible to determine the value of With Rcm obtained {1 + k 1 Rcm 2 + k 2 Rcm 4 + k 3 Rcm 6}, the ideal coordinate values from equation (8) [Xcm, Ycm] and distortion coordinate values The relationship of [Xcd, Ycd] can be expressed as a mathematical expression, and the denominator of the right side of Expression (2) can be specified.
Moreover, the relationship between [Xcm, Ycm] and [Ud, Vd] can be mathematically expressed by replacing [Xcd, Ycd] with [Ud, Vd] from equation (13).
Hereinafter, this mathematical relationship is expressed as Xcm = gx [Ud, Vd] and Ycm = gy [Ud, Vd].

またYwm=Yconst(任意の定数)である場合は、さらに求めた[Xcm,Ycm]から次式によって残りの三次元空間座標[Xwm,Zwm]の位置を特定できる。
Y に任意の高さYconstを与え、式(5b)の行列を次式(5c)の行列に変形する。rnn, tnはキャリブレーションより取得済みの既知の値であるので、画面上の座標[Ud,Vd]に対して媒介変数sの実値を取得することができる。
よって求めたsの実値を使用し[Ud,Vd,Yconst]に対する[Xwm,Zwm]の位置を特定することができる。
When Ywm = Yconst (arbitrary constant), the position of the remaining three-dimensional space coordinates [Xwm, Zwm] can be specified from the obtained [Xcm, Ycm] by the following formula.
Arbitrary height Yconst is given to Y, and the matrix of the formula (5b) is transformed into the matrix of the following formula (5c). Since r nn and t n are known values acquired from the calibration, the actual value of the parameter s can be acquired for the coordinates [Ud, Vd] on the screen.
Therefore, the position of [Xwm, Zwm] relative to [Ud, Vd, Yconst] can be specified using the obtained actual value of s.

添字の-1は逆行列を示す   The subscript -1 indicates the inverse matrix

次に、Rcm2 ≧ Rck2 での近似式について[Ud, Vd]から[Xwm, Ywm, Zwm]を求める。
本式も最急降下法等の手法によりp1 ln Rcm2 + p2の対数部分項を次式(17)のように五次元以上のRcm2の高次特性方程式でさらに近似し置き換える。
Next, [Xwm, Ywm, Zwm] is obtained from [Ud, Vd] with respect to the approximate expression for Rcm 2 ≧ Rck 2 .
In this formula, the logarithmic partial term of p 1 ln Rcm 2 + p 2 is further approximated and replaced by a higher-order characteristic equation of Rcm 2 of five dimensions or more as shown in the following formula (17) by a method such as steepest descent method.

nnは式(10)のRcmに関する式を五次元以上の方程式に近似した際の近似係数 n n is an approximation coefficient when the equation for Rcm in equation (10) is approximated to an equation of five dimensions or more.

やはりX,Y成分に着目し二次元ベクトルで次式(19)に示すRcmに関する特性方程式を立てる。   Again, paying attention to the X and Y components, a characteristic equation for Rcm as shown in the following equation (19) is set up by a two-dimensional vector.

求めたRcmを使用すると{1+p1 ln Rcm2 + p2}の値が特定できるので、式(10)から[Xcm, Ycm]と[Xcd, Ycd]の関係を数式化できる。
また式(13)より[Xcd, Ycd] を[Ud,Vd]で置き換えることで[Xcm, Ycm]と[Ud,Vd]の関係を数式化できる。
よってYconst を設定することで、同様に二次元の画像平面の各画素[Ud,Vd]に対する[Xwm,Zwm]座標を得ることができる。
Since the value of {1 + p 1 ln Rcm 2 + p 2 } can be specified by using the obtained Rcm, the relationship between [Xcm, Ycm] and [Xcd, Ycd] can be formulated from the equation (10).
Further, the relationship between [Xcm, Ycm] and [Ud, Vd] can be expressed by replacing [Xcd, Ycd] with [Ud, Vd] from the equation (13).
Therefore, by setting Yconst, the [Xwm, Zwm] coordinates for each pixel [Ud, Vd] on the two-dimensional image plane can be obtained similarly.

以上、Yconst を定めた後[Ud,Vd]を画面サイズに合わせて変化させ、Rcm2< Rck2、 Rcm2 ≧ Rck2 で処理を切り替え、全ての[Ud,Vd,Yconst]に対する[Xwm,Zwm]を求めることができる。
さらに取得した[Xwm,Zwm]値を対応する画像上の[Ud,Vd]位置にあわせて二次元平面上へ配置することでXwm およびZwm に関する広角のカメラ12の視野全域について、計測マップ38を作成することができる。
As described above, after setting Yconst, [Ud, Vd] is changed according to the screen size, the process is switched with Rcm 2 <Rck 2 , Rcm 2 ≧ Rck 2 , and all [Ud, Vd, Yconst] are set to [Xwm, Zwm] can be obtained.
Further, by arranging the acquired [Xwm, Zwm] value on the two-dimensional plane in accordance with the [Ud, Vd] position on the corresponding image, the measurement map 38 is obtained for the entire field of view of the wide-angle camera 12 related to Xwm and Zwm. Can be created.

次に、上述した式(2)と式(3)とを校正円Rckで切り替えることで計測マップ38を生成する方法を説明する。この計測マップ生成方法は、計測マップ生成装置を使用して、計測マップ38を生成する。計測マップ生成装置は、図1に示す記憶部14と、生成処理部16とを備えている。   Next, a method for generating the measurement map 38 by switching the above-described equation (2) and equation (3) with the calibration circle Rck will be described. In this measurement map generation method, a measurement map 38 is generated using a measurement map generation device. The measurement map generation apparatus includes a storage unit 14 and a generation processing unit 16 illustrated in FIG.

図8を参照すると、まず、仮定地上高Yconstと、校正円Rckとを入力する(ステップS21)。次に、カメラ12の内部パラメーターa,cと式(1)とを使用して、前記広角画像10の画像座標値[Ud, Vd]を歪曲平面座標値[Xcd, Ycd]に変換する(歪曲平面化工程,ステップS22)。そして、歪曲平面座標値[Xcd, Ycd]が校正円Rckの範囲内であるか否かを確認する(ステップS23)。そして、前記歪曲平面座標系XcdYcdでの予め定められた校正円Rckの内部の場合には、前記放射歪曲補正式2を使用して、前記歪曲平面座標値[Xcd, Ycd]を前記理想平面座標値[Xcm, Ycm]に変換する(理想平面化工程,ステップS24)。一方、当該校正円Rckの外部の場合には、前記対数歪曲補正式3を使用して、前記歪曲平面座標値[Xcd, Ycd]を前記理想平面座標値[Xcm, Ycm]に変換する(理想平面化工程,ステップS25)。
さらに、カメラ12の外部パラメーターr,tと式(4)とを使用して、前記理想平面座標値[Xcm, Ycm]を前記世界座標値[Xwm, Yconst, Zwm]に変換する(世界座標化工程,ステップS26)。そして、ステップS22で特定した画像座標値[Udi, Vdj]に対応する世界座標値として、ステップS26で変換した世界座標値[Xwm, Yconst, Zwm]を記録する(ステップS27)。
Referring to FIG. 8, first, an assumed ground height Yconst and a calibration circle Rck are input (step S21). Next, using the internal parameters a and c of the camera 12 and the equation (1), the image coordinate value [Ud, Vd] of the wide-angle image 10 is converted into the distorted plane coordinate value [Xcd, Ycd] (distortion). Planarization step, step S22). Then, it is checked whether or not the distortion plane coordinate value [Xcd, Ycd] is within the range of the calibration circle Rck (step S23). Then, in the case of the inside of the predetermined calibration circle Rck in the distortion plane coordinate system XcdYcd, the distortion plane coordinate value [Xcd, Ycd] is calculated as the ideal plane coordinate using the radial distortion correction formula 2. Conversion into values [Xcm, Ycm] (ideal planarization step, step S24). On the other hand, in the case of outside the calibration circle Rck, the distortion plane coordinate value [Xcd, Ycd] is converted into the ideal plane coordinate value [Xcm, Ycm] using the logarithmic distortion correction equation 3 (ideal Planarization step, step S25).
Further, using the external parameters r and t of the camera 12 and the equation (4), the ideal plane coordinate value [Xcm, Ycm] is converted into the world coordinate value [Xwm, Yconst, Zwm] (world coordinate conversion). Process, step S26). Then, the world coordinate value [Xwm, Yconst, Zwm] converted in step S26 is recorded as the world coordinate value corresponding to the image coordinate value [Udi, Vdj] specified in step S22 (step S27).

そして、前記各画像座標値[Ud, Vd]の前記世界座標値[Xwm, Ywm, Zwm]を生成するまで前記各工程S22からS27を繰り返すことで前記計測マップ38を生成する(マップ生成工程,ステップS28,S29,S30,S30)。マップ生成工程では、画像座標系の最大値をimax及びjmaxとして、Vdjを固定してiをインクリメントし(ステップS28,S29)、この Vdjについてimaxに至った場合に、jをインクリメントし(ステップS30,S31)、UdiとVdjとがともに最大値となるまで、全ての画像座標値[Udi, Vdj]となるまで世界座標値[Xwm, Yconst, Zwm]への変換を繰り返す。   Then, the measurement map 38 is generated by repeating steps S22 to S27 until the world coordinate values [Xwm, Ywm, Zwm] of the image coordinate values [Ud, Vd] are generated (map generation step, Steps S28, S29, S30, S30). In the map generation process, the maximum value of the image coordinate system is set to imax and jmax, Vdj is fixed and i is incremented (steps S28 and S29), and j is incremented when imax is reached for this Vdj (step S30). , S31), the conversion to the world coordinate values [Xwm, Yconst, Zwm] is repeated until all the image coordinate values [Udi, Vdj] are obtained until both Udi and Vdj reach the maximum values.

・1.3 校正円と補正式の効果
上述のように、対数歪曲補正式(3)を使用することで、実測による校正可能範囲外も良好に補正することができる。
また、計測マップ38を予め生成しておくことで、走行環境を確認するための画像処理時に、演算負荷の高い補正をする必要がなくなり、広角画像10をそのまま画像処理に使用することができる。
例えば、従来例でも歪み除去により線形に近似した画像から、一定の高さに照準を絞った位置での物体OJについて二次元の画像平面と三次元空間を取ることができしかしながら、歪み補正処理については最急降下法等の演算負荷の高いものを使用するため、短時間での処理やリアルタイム性を要求される装置について、画像平面上の全画素に関して対応を取るには非常にスペックの高いCPUが要求され、またはリアルタイムでの処理をすることができない。
そして、広角画像10を補正すると、線形な近似画像を作成する際に施す形状の修正変換により連続する2枚の画像間での変化が非連続となり、マッチング処理・オプティカルフロー処理等の画像処理で支障をきたす恐れがある。
よって、画像平面上の座標に対して対応する三次元座標(但し高さは一定値)を画像と同じサイズの二次元テーブルに記録した計測マップ38を導入することで、処理を高速化し、より実用的なスペックのCPUでも物体OJの位置を特定することができる。
-1.3 Effect of calibration circle and correction formula As described above, by using the logarithmic distortion correction formula (3), it is possible to correct well outside the calibratable range by actual measurement.
In addition, by generating the measurement map 38 in advance, it is not necessary to perform a correction with a high calculation load at the time of image processing for confirming the traveling environment, and the wide-angle image 10 can be used for image processing as it is.
For example, in the conventional example, it is possible to take a two-dimensional image plane and a three-dimensional space for an object OJ at a position aimed at a certain height from an image linearly approximated by distortion removal. Uses a device with a high calculation load such as the steepest descent method. Therefore, for a device that requires processing in a short time and real-time performance, a CPU with very high specifications is required to deal with all pixels on the image plane. It cannot be requested or processed in real time.
When the wide-angle image 10 is corrected, the change between the two consecutive images becomes discontinuous due to the shape correction conversion performed when the linear approximate image is created, and image processing such as matching processing and optical flow processing is performed. There is a risk of hindrance.
Therefore, by introducing a measurement map 38 in which three-dimensional coordinates corresponding to coordinates on the image plane (however, the height is a constant value) is recorded in a two-dimensional table having the same size as the image, the processing speed is increased, Even with a CPU with practical specifications, the position of the object OJ can be specified.

<1.4 測定枠との合成>
再度図1を参照すると、好適な例では、前記記憶部14が、画像処理の対象とする測定の範囲を前記世界座標値XYZの最大値及び最小値で区分する測定枠44を予め記憶している。
そして、前記生成処理部16が、前記計測マップ38のうち、前記世界座標値が当該測定枠44に含まれる画像座標値の値を抽出する測定枠処理46を備えると良い。
測定枠44は、走行環境を確認するに際して、測定する必要の無い領域がある際には、その領域を測定対象から除外するための枠である。測定枠44は、世界座標系XYZで定義することができる。例えば、自車MTとの距離の範囲を世界座標系XYZのZの範囲で定義し、左右方向の範囲をXの値で定義すると良い。また、図3に示す地上高上限48よりも高い領域を測定対象外と定義することもできる。
測定枠処理46は、図6に示すように、全体計測マップ50を生成した後(ステップS6)、測定枠44の内側について、測定枠計測マップ52を生成すると良い。
<1.4 Combining with measurement frame>
Referring to FIG. 1 again, in a preferred example, the storage unit 14 stores in advance a measurement frame 44 that divides a measurement range to be subjected to image processing by the maximum value and the minimum value of the world coordinate values XYZ. Yes.
The generation processing unit 16 may include a measurement frame process 46 that extracts a value of an image coordinate value in which the world coordinate value is included in the measurement frame 44 in the measurement map 38.
The measurement frame 44 is a frame for excluding a region that does not need to be measured when confirming the traveling environment from the measurement target. The measurement frame 44 can be defined in the world coordinate system XYZ. For example, the range of the distance to the host vehicle MT may be defined by the Z range of the world coordinate system XYZ, and the horizontal range may be defined by the X value. Further, it is possible to define a region higher than the ground height upper limit 48 shown in FIG.
As shown in FIG. 6, the measurement frame processing 46 may generate the measurement frame measurement map 52 for the inside of the measurement frame 44 after generating the entire measurement map 50 (step S <b> 6).

図9を参照すると、全体計測マップ50から測定枠計測マップ52を生成するには、まず、測定枠44を入力する(ステップS41)。測定枠44は、自車MTに近く画像座標系UVで下部のZ最小値Zmin、自車MTから離れており画像座標系UVの上部となるZ最大値Zmax、世界座標系XYZ及び画像座標系UVの左右方向の最小値Xmin及び最大値Xmaxとである。
続いて、画像座標系UVの座標値を特定し(ステップS42)、世界座標値[Xwm, Zwm]を読み出す(ステップS43)。この特定した画像座標値[Udi, Vdj]の世界座標値[Xwm, Zwm]が測定枠44の各最大値及び最小値の範囲外であれば(ステップS44)、世界座標値[Xwm, Zwm]を背景値で上書きする(ステップS45)。測定枠44の範囲内であれば上書きしない。
Referring to FIG. 9, in order to generate the measurement frame measurement map 52 from the overall measurement map 50, first, the measurement frame 44 is input (step S41). The measurement frame 44 is close to the own vehicle MT and has a lower Z minimum value Zmin in the image coordinate system UV, a Z maximum value Zmax far from the own vehicle MT and above the image coordinate system UV, a world coordinate system XYZ, and an image coordinate system. The minimum value Xmin and the maximum value Xmax in the left-right direction of UV.
Subsequently, the coordinate value of the image coordinate system UV is specified (step S42), and the world coordinate value [Xwm, Zwm] is read (step S43). If the world coordinate value [Xwm, Zwm] of the specified image coordinate value [Udi, Vdj] is outside the range of each maximum value and minimum value of the measurement frame 44 (step S44), the world coordinate value [Xwm, Zwm] Is overwritten with the background value (step S45). If it is within the range of the measurement frame 44, it is not overwritten.

次に、Udiの画素位置iが最大値であるか否かを確認し(ステップS46)、最大値でなければiをインクリメントしてi+1の画素位置についてステップS42からS45を繰り返す(ステップS47)。Udiの画素位置が最大値となると、jが最大値となるまで(ステップS48)、jをインクリメントしてステップS42からS46を繰り返す。
これにより測定枠44の外側の世界座標値[Xwm, Yconst, Zwm]を背景値で上書きし、測定枠計測マップ52を生成する。
Next, it is confirmed whether or not the pixel position i of Udi is the maximum value (step S46). If it is not the maximum value, i is incremented and steps S42 to S45 are repeated for the pixel position of i + 1 (step S47). ). When the pixel position of Udi reaches the maximum value, j is incremented and steps S42 to S46 are repeated until j reaches the maximum value (step S48).
As a result, the world coordinate values [Xwm, Yconst, Zwm] outside the measurement frame 44 are overwritten with the background value, and the measurement frame measurement map 52 is generated.

図10は、生成した測定枠計測マップ52の一例であり、仮定地上高Yconstを350 [mm] と設定した。図10(A)に後方視界 -5,100から+ 5,100 [mm] のX計測マップ38Aの一例を示し、図10(B)に後方視界 250〜 17,000 [mm] のZ計測マップ38Bの一例を示す。
X計測マップ38Aでは、暗が左遠方を示し、明が右遠方を示す。Z計測マップ38Bでは、暗が車間距離近方を示し、明が車間距離遠方を示す。
FIG. 10 is an example of the generated measurement frame measurement map 52, and the assumed ground height Yconst is set to 350 [mm]. FIG. 10A shows an example of an X measurement map 38A with a rear field of view from −5,100 to +5,100 [mm], and FIG. 10B shows an example of a Z measurement map 38B with a rear field of view of 250 to 17,000 [mm].
In the X measurement map 38A, dark indicates far left and bright indicates right far. In the Z measurement map 38B, dark indicates the distance between the vehicles, and light indicates the distance between the vehicles.

表示の都合上、図10に示す測定枠計測マップ52について、区分を判りやすくするために、8 ビットにダウンサイズ化し、偶数域を白(8 ビット偶数)で交互に描画することで境界位置を示した。
また、両翼方向(XminとXmax)の測定枠44となる設定視界について、両隣車線を含む3車線分(±5〜6m 程度)で設定すると良い。手前・奥(ZminとZmax)は使用するカメラ12のスペックにあわせて適当に測定枠44を設定する。例えば、遠く離れた接近車両は画像上で小さくなりすぎて何なのか判別が難しい。また接近しすぎると警報を出しても間に合わないため測定の対象外とする場合がある。
この測定枠44の設定により画像処理中の無駄な探索を回避できる。すなわち、測定枠計測マップ52でX, Zの座標データを設定しない無効化(白=背景色)位置では、オプティカルフロー処理を始めから行わない。つまり、判定に不要な位置として計算しないことで効率化できる。
For the convenience of display, in order to make the measurement frame measurement map 52 shown in FIG. Indicated.
Moreover, it is preferable to set the setting field of view as the measurement frame 44 in both wing directions (Xmin and Xmax) in three lanes (about ± 5 to 6 m) including both adjacent lanes. For the front and back (Zmin and Zmax), the measurement frame 44 is appropriately set according to the specifications of the camera 12 to be used. For example, an approaching vehicle that is far away becomes too small on the image and it is difficult to determine what it is. Also, if it is too close, even if an alarm is issued, it will not be in time, so it may be excluded from measurement.
By setting the measurement frame 44, useless search during image processing can be avoided. That is, the optical flow process is not performed from the beginning at the invalidation (white = background color) position where X and Z coordinate data is not set in the measurement frame measurement map 52. In other words, efficiency can be improved by not calculating as a position unnecessary for determination.

図11(A)及び(B)に示す例えば8 ビットにダウンサイズした測定枠計測マップ52に関しては、分解能により、ある1領域が以下の情報を示している。(白=背景色位置は無効)
図11(A)X計測マップ38A: (5,100x2)/255 ≒ 39 [mm]
図11(B)Z計測マップ38B: (17,000)/255 ≒ 66 [mm]
8 ビットの計測マップ38の場合、確認したいオプティカルフローの始点の座標が[Ud1,Vd1]、終点の座標が[Ud2, Vd2]なら、測定枠計測マップ52より取得したX1[Ud1, Vd1]、Z1[Ud1, Vd1]およびX2[Ud2, Vd2]、Z2[Ud2,Vd2]から対象の三次元空間座標W1[Xwm1, Ywm1, Zwm1]、W2[Xwm2, Ywm2, Zwm2]は次のとおりとなる。
W1[Xwm1,Ywm1,Zwm1]= [39 x X1[Ud1,Vd1], Yconst , 66 x Z1[Ud1,Vd1] 単位はmm
W2[Xwm2,Ywm2,Zwm2]= [39 x X2[Ud2,Vd2], Yconst , 66 x Z2[Ud2,Vd2] 単位はmm
With respect to the measurement frame measurement map 52 downsized to, for example, 8 bits shown in FIGS. 11A and 11B, one area indicates the following information depending on the resolution. (White = background color position is invalid)
Fig. 11 (A) X measurement map 38A: (5,100x2) / 255 ≒ 39 [mm]
Fig. 11 (B) Z measurement map 38B: (17,000) / 255 ≒ 66 [mm]
In the case of the 8-bit measurement map 38, if the coordinates of the start point of the optical flow to be confirmed are [Ud1, Vd1] and the coordinates of the end point are [Ud2, Vd2], X1 [Ud1, Vd1] obtained from the measurement frame measurement map 52, From Z1 [Ud1, Vd1] and X2 [Ud2, Vd2], Z2 [Ud2, Vd2], the target three-dimensional spatial coordinates W1 [Xwm1, Ywm1, Zwm1], W2 [Xwm2, Ywm2, Zwm2] are as follows: .
W1 [Xwm1, Ywm1, Zwm1] = [39 x X1 [Ud1, Vd1], Yconst, 66 x Z1 [Ud1, Vd1] The unit is mm
W2 [Xwm2, Ywm2, Zwm2] = [39 x X2 [Ud2, Vd2], Yconst, 66 x Z2 [Ud2, Vd2] The unit is mm

計測マップ38の分解能を16 ビット、32 ビットとあげていけば、各画素位置での三次元位置X、Z の情報をより詳細に取得することができる。
16 ビットX計測マップ38A: (5100x2)/65536 ≒0.16mm
16 ビットZ計測マップ38B: (17000) /65536 ≒0.25mm
If the resolution of the measurement map 38 is increased to 16 bits and 32 bits, the information of the three-dimensional positions X and Z at each pixel position can be acquired in more detail.
16-bit X measurement map 38A: (5100x2) / 65536 ≒ 0.16mm
16-bit Z measurement map 38B: (17000) / 65536 ≒ 0.25mm

図12は、測定枠計測マップ52で、Z計測マップ38Bである一例を示す図である。図12(A)から(C)は、仮定地上高Yconstを変化させた際のそれぞれのZ計測マップ38Bである。図12(A)の仮定地上高Yconst1が一番高く、図12(C)の仮定地上高Yconst3が一番低い。この仮定地上高は、図23に示す仮定地上高Yconstと対応している。   FIG. 12 is a diagram illustrating an example of the measurement frame measurement map 52 that is the Z measurement map 38B. FIGS. 12A to 12C are Z measurement maps 38B when the assumed ground height Yconst is changed. The assumed ground height Yconst1 in FIG. 12 (A) is the highest, and the assumed ground height Yconst3 in FIG. 12 (C) is the lowest. This assumed ground height corresponds to the assumed ground height Yconst shown in FIG.

・1.4 測定枠との合成の効果
上述のように、世界座標系XYZで測定枠44を定義し、計測マップ38に反映させておくことができる。すると、走行環境の確認等の目的で、測定枠44がある場合に、測定枠44の参照と、世界座標系XYZの参照との2度のアクセスを必要とせず、1度のアクセスで必要な情報を得ることができる。
1.4 Effect of Combining with Measurement Frame As described above, the measurement frame 44 can be defined in the world coordinate system XYZ and reflected in the measurement map 38. Then, when there is the measurement frame 44 for the purpose of checking the driving environment, it is not necessary to access the reference of the measurement frame 44 and the reference of the world coordinate system XYZ twice. Information can be obtained.

<2 走行環境確認装置>
<2.1 広角画像のオプティカルフロー>
次に、実施例2を開示する。
走行環境確認装置は、主要な要素として、確認処理部60と、追跡処理62と、位置参照処理64とを備えている。
図13を参照すると、走行環境確認装置は、広角レンズ28を有し自車MTの走行環境を撮影するカメラ12と、所定の計測マップ38を記憶した記憶部14と、前記カメラ12から入力される広角画像10と前記計測マップ38とに基づいて前記自車MTの前記走行環境を確認する確認処理部60とを備えている。
そして、前記計測マップ38は、前記走行環境の世界座標系XYZでの測定枠44の範囲内について、画像座標系UVの画像座標値[Ud, Vd]と前記世界座標系XYZの世界座標値[Xwm, Ywm, Zwm]との対応を予め記憶したマップである。この計測マップ38は、図10から図12に示す測定枠44が付された測定枠計測マップ52であり、個別に、X計測マップ38A及びZ計測マップ38Bということもある。
<2 Driving environment confirmation device>
<2.1 Optical flow of wide-angle images>
Next, Example 2 is disclosed.
The travel environment confirmation device includes a confirmation processing unit 60, a tracking process 62, and a position reference process 64 as main elements.
Referring to FIG. 13, the traveling environment confirmation device is input from the camera 12 having a wide-angle lens 28 and photographing the traveling environment of the host vehicle MT, the storage unit 14 storing a predetermined measurement map 38, and the camera 12. And a confirmation processing unit 60 for confirming the traveling environment of the host vehicle MT based on the wide-angle image 10 and the measurement map 38.
Then, the measurement map 38 includes the image coordinate value [Ud, Vd] of the image coordinate system UV and the world coordinate value of the world coordinate system XYZ [within the range of the measurement frame 44 in the world coordinate system XYZ of the traveling environment [ Xwm, Ywm, Zwm] is a map storing the correspondence in advance. This measurement map 38 is a measurement frame measurement map 52 to which the measurement frame 44 shown in FIGS. 10 to 12 is attached, and may be referred to as an X measurement map 38A and a Z measurement map 38B, respectively.

前記確認処理部60が、追跡処理62と、位置参照処理64とを備えている。追跡処理62は、連続する前記広角画像10を使用して、前記測定枠44の範囲内の当該広角画像10での特徴点CPを追跡する。位置参照処理64は、前記追跡した特徴点CPであるフローFLの画像座標値から前記計測マップ38を参照し、当該フローFLの世界座標系XYZでの位置を特定する。   The confirmation processing unit 60 includes a tracking process 62 and a position reference process 64. The tracking process 62 tracks feature points CP in the wide-angle image 10 within the measurement frame 44 using the continuous wide-angle image 10. The position reference process 64 refers to the measurement map 38 from the image coordinate value of the flow FL that is the tracked feature point CP, and specifies the position of the flow FL in the world coordinate system XYZ.

図13に示す例では、記憶部14は、広角画像10を一時的に記憶する画像メモリー15と、フローFLの抽出に使用する速度範囲68と、テンプレート70と、測定枠44とを記憶している。また、確認処理部60は、抽出したフローFLのうち確認の目的に応じて有効なフローFLを抽出する有効フロー抽出処理66や、フローFLをグループ化するグループ化処理72や、抽出したフローFLに基づいて接近や警報出力の有無等を判定する判定処理74を備えている。   In the example illustrated in FIG. 13, the storage unit 14 stores an image memory 15 that temporarily stores the wide-angle image 10, a speed range 68 that is used to extract the flow FL, a template 70, and a measurement frame 44. Yes. The confirmation processing unit 60 also extracts an effective flow extraction process 66 for extracting an effective flow FL according to the purpose of confirmation from the extracted flows FL, a grouping process 72 for grouping the flows FL, and an extracted flow FL. And a determination process 74 for determining the presence or absence of an approach or alarm output based on the above.

図14を参照すると、走行環境確認装置は、ハードウエア資源として、確認の用途や機能に応じて、自車MTの速度を検出する車速センサー82や、自車MTの操舵角を検出する操舵角センサー84や、ウインカー操作の有無を検出するウインカー制御部86や、地図情報と自車MTの位置とに基づいて走行路を案内するナビゲーション装置88を備えている。走行環境確認装置は、さらに、カメラ12からの広角画像10を表示する表示部90と、この表示部90に表示する広角画像10の表示を制御する表示制御部92とを備えると良い。表示制御部92は、表示する画像の視点の切り替え等に応じた画像処理を行うと良い。
そして、走行環境確認装置は、確認処理部60として機能するコントローラー80を備えている。このコントローラー80は、CPUを有する。実施例2では、広角画像10を逐次に補正する高負荷な処理を行わないため、比較的安価なCPUを使用することができる。
また、走行環境確認装置は、コントローラー80による判定処理74の判定結果に応じて警報を出力する警報出力部94を備えると良い。警報出力部94は、音での警報であれば、音の出力制御部とスピーカーとを備える。表示による警報であれば、表示制御部92と連動して警報を表示制御する。また、警報出力部94は、ウインカー制御部86と連動して、車線変更のためにウインカーが操作された際に、当該車線にフローFLから抽出した後方車両が存在している際に、警報を出力するようにしても良い。
Referring to FIG. 14, the traveling environment confirmation device uses, as hardware resources, a vehicle speed sensor 82 that detects the speed of the host vehicle MT and a steering angle that detects the steering angle of the host vehicle MT according to the purpose and function of the confirmation. A sensor 84, a winker control unit 86 for detecting presence / absence of a winker operation, and a navigation device 88 for guiding a travel route based on map information and the position of the host vehicle MT are provided. The traveling environment confirmation device may further include a display unit 90 that displays the wide-angle image 10 from the camera 12 and a display control unit 92 that controls display of the wide-angle image 10 displayed on the display unit 90. The display control unit 92 may perform image processing according to switching of the viewpoint of the image to be displayed.
The traveling environment confirmation device includes a controller 80 that functions as the confirmation processing unit 60. The controller 80 has a CPU. In the second embodiment, since a high-load process for sequentially correcting the wide-angle image 10 is not performed, a relatively inexpensive CPU can be used.
Further, the traveling environment confirmation device may include an alarm output unit 94 that outputs an alarm according to the determination result of the determination process 74 by the controller 80. The alarm output unit 94 includes a sound output control unit and a speaker if it is a sound alarm. If it is an alarm by display, the alarm is displayed and controlled in conjunction with the display control unit 92. Further, the alarm output unit 94 operates in conjunction with the winker control unit 86 to issue an alarm when the winker is operated to change the lane and there is a rear vehicle extracted from the flow FL in the lane. You may make it output.

以下、広角レンズ28を有するカメラ12で後方を連続撮影した画像からフローFLを検出し、複数のフローFLから自車MTの走行や運転者の操作に危険が及ぶ恐れがあるフローFLを抽出し、運転者へ警報を出力する走行環境確認装置を例として説明する。
実施例2では、この走行環境確認装置は、実施例1で説明した計測マップ38を使用する。
例えば、走行環境確認装置は、広角画像10からフローFLを抽出して障害物となる物体OJの動きを監視し、安全の確認が必要であると判断された物体OJに関して、計測マップ38から物体OJの三次元空間の世界座標値[Xwm, Ywm, Zwm]を参照し、自車MTとの相対速度、相対位置を自動計測し、予め定められた警報すべき範囲の場合には、警報を発する。
Hereinafter, a flow FL is detected from an image obtained by continuously photographing the rear with the camera 12 having the wide-angle lens 28, and a flow FL that may pose a danger to the traveling of the vehicle MT and the operation of the driver is extracted from the plurality of flows FL. A driving environment confirmation device that outputs a warning to the driver will be described as an example.
In the second embodiment, the traveling environment confirmation device uses the measurement map 38 described in the first embodiment.
For example, the traveling environment confirmation device extracts the flow FL from the wide-angle image 10 to monitor the movement of the object OJ that becomes an obstacle, and the object OJ that is determined to require safety confirmation from the measurement map 38. Referring to the world coordinate values [Xwm, Ywm, Zwm] of the three-dimensional space of OJ, the relative speed and relative position with the vehicle MT are automatically measured. To emit.

図15に示すように、仮定地上高Yconstは図中一般車のナンバープレート等が配備される高さとすると良い。
仮定地上高Yconst = 0 で計測マップ38作成を行うと、物体OJと路面GRの境界部分で検出できたフローFLのみ抽出することとなってしまう。この境界部分では、影の形状変化(天気や日照方向、路面GRの状態等の外乱)により特徴点CPがアンマッチとなりやすく、フローFLの検出効率が低くなる。このため、仮定地上高Yconst = 0を避けることが望ましい。そして、仮定地上高Yconstの高さは、バンパー、ナンバープレート、ライト、タイヤホイール等のコントラストが強く特徴量の大きな要素を含む高さ(100〜500 [mm])を目安とすると良い。なお、記憶部14の記憶容量に余裕がある場合は、図12に示すように仮定地上高Yconstを複数設定し、X及びZの計測マップ38を多層化しても良い。
As shown in FIG. 15, the assumed ground height Yconst is preferably a height at which a license plate of a general vehicle is provided in the figure.
When the measurement map 38 is created with the assumed ground height Yconst = 0, only the flow FL that can be detected at the boundary between the object OJ and the road surface GR is extracted. At this boundary portion, the feature point CP is likely to be unmatched due to a change in the shape of the shadow (disturbance such as weather, sunshine direction, road surface GR state, etc.), and the detection efficiency of the flow FL is lowered. For this reason, it is desirable to avoid the assumed ground height Yconst = 0. The assumed ground height Yconst is preferably a height (100 to 500 [mm]) that includes elements such as bumpers, license plates, lights, tire wheels, etc. that have high contrast and large feature amounts. If there is a margin in the storage capacity of the storage unit 14, a plurality of assumed ground heights Yconst may be set as shown in FIG. 12, and the X and Z measurement maps 38 may be multilayered.

また、図15に示すように、地上高上限48よりも高い高さにつては、測定対象外とすると良い。
計測マップ38は、レンズ焦点と対象を結ぶ直線が、仮定地上高Yconstと平行な平面との角度が0度(平行)以上となる位置では、求める平面とレンズ焦点と対象を結ぶ直線が交わらないため、X,Z座標が求まらず、また、この高さではフローFLの検出効率も低い。従って、実施例2では、カメラ12の設置高を地上高上限48として、これより高い部分は、後方の空中方向を撮影したものと考え、測定枠44から除外する。これにより、効率的なフローFLを実行することができる。
Further, as shown in FIG. 15, the height higher than the ground height upper limit 48 is preferably excluded from the measurement target.
In the measurement map 38, the straight line connecting the lens focus and the object does not intersect at a position where the straight line connecting the lens focus and the object is at an angle of 0 degrees (parallel) or more with the plane parallel to the assumed ground height Yconst. Therefore, the X and Z coordinates cannot be obtained, and the detection efficiency of the flow FL is low at this height. Therefore, in the second embodiment, the installation height of the camera 12 is set to the ground height upper limit 48, and a portion higher than this is considered to have been taken from the rear aerial direction and is excluded from the measurement frame 44. Thereby, an efficient flow FL can be executed.

図15に示す例では、自車MTから後方をカメラ12で撮像し、後方の物体OJである車両が、時間Δtの間に、点線位置から実線位置に移動すると、世界座標系XYZでのフローFLは、ピンホールカメラ・モデルでの理想平面24,歪曲平面26にてフローFLとなる。   In the example shown in FIG. 15, when the rear image of the vehicle MT is captured by the camera 12 and the vehicle that is the rear object OJ moves from the dotted line position to the solid line position during the time Δt, the flow in the world coordinate system XYZ. The FL becomes the flow FL on the ideal plane 24 and the distortion plane 26 in the pinhole camera model.

図16(A)は、移動前の広角画像10の一例を示し、図16(B)はΔt後の移動後の広角画像10の一例を示す。図17は、図16(A)に示す広角画像10にテンプレート70を重ねた状態を示し、図17(A)は全体テンプレート70Aを重ねた例で、図17(B)はテンプレート70を測定枠44の範囲とした測定枠テンプレート70Bを重ねた例を示す。そして、図18に、抽出したフローFLを図16(B)に示す広角画像10に重ねた例を示す。図18(A)は全体テンプレート70Aにより抽出したフローFLで、図18(B)は測定枠テンプレート70Bにより抽出したフローFLである。   FIG. 16A shows an example of the wide-angle image 10 before movement, and FIG. 16B shows an example of the wide-angle image 10 after movement after Δt. 17 shows a state in which the template 70 is overlaid on the wide-angle image 10 shown in FIG. 16A, FIG. 17A shows an example in which the whole template 70A is overlaid, and FIG. 17B shows the template 70 in the measurement frame. An example is shown in which measurement frame templates 70B having a range of 44 are overlapped. FIG. 18 shows an example in which the extracted flow FL is superimposed on the wide-angle image 10 shown in FIG. FIG. 18A shows the flow FL extracted by the whole template 70A, and FIG. 18B shows the flow FL extracted by the measurement frame template 70B.

全体テンプレート70Aを例に、追跡処理62によるオプティカルフロー処理を説明する。オプティカルフローの手法は、まず、移動前に撮影した画面全体について、図17(A)に示す全体テンプレート70Aで図16(A)に示す広域画像をテンプレート70による各ブロックに領域分割し、そのテンプレート70Aのブロックを登録する。次に、図16(B)に示す移動後の画像に対して、移動前に登録したされた各テンプレート70のブロックの単位で近傍の周辺画像を探索し、一致点・対応点を調査し、画像中の物体OJの特徴部分CAを画像上の特徴点CPとして捉え、その物体OJの挙動を推定する。   The optical flow process by the tracking process 62 will be described using the entire template 70A as an example. In the optical flow method, first, with respect to the entire screen shot before moving, the wide area image shown in FIG. 16A is divided into blocks by the template 70 using the whole template 70A shown in FIG. Register the 70A block. Next, with respect to the image after movement shown in FIG. 16 (B), a neighboring peripheral image is searched in units of blocks of each template 70 registered before movement, and a matching point / corresponding point is investigated. The feature portion CA of the object OJ in the image is regarded as a feature point CP on the image, and the behavior of the object OJ is estimated.

オプティカルフローの計算は次の手順となる。
(1)比較する移動前の画像をテンプレート70領域に分割し登録する。
(2)登録したテンプレート70単位で、移動後の画像のテンプレート70の登録地点およびその周囲の画像の対応点を探索する。探索時の一致度の判定は、テンプレート70の輝度値と探索位置でテンプレート70のサイズ分で画素毎に輝度値の変化を調べる。一般的には、絶対値差分和(SAD, Sum of Absolute Difference)や正規化相互相関(NCC, Normalized Cross-Correlation) による評価をする。
また、処理を効率化するために、メディアンフィルタなどのノイズ除去処理を行っても良い。そして、路面GR(道路)など明らかに輝度分布に変化や起伏無いような地点は、特徴量の少ない地点として探索処理や評価をパスしても良い。
(3)対応点がテンプレート70の登録地点であれば、そのテンプレート70内に移る物体OJは静止しており、テンプレート70の登録地点の周辺に対応点が見つかればテンプレート70内の物体OJは移動したものと考えられる。
(4)さらに、(3)について、カメラ12(自車MT)が移動しておれば、静止する物体OJは追従、後ろに移動するものは背景と判断できる。
また、図17に示す例では、テンプレート70のブロックを線形な格子状としているが、歪曲平面26にあわせて歪曲させ、特にZ方向で遠方のフローについてより微細な抽出をするようにしても良い。
The optical flow is calculated as follows.
(1) The image before movement to be compared is divided into template 70 areas and registered.
(2) The registration point of the moved image template 70 and the corresponding points of the surrounding image are searched for in the registered template 70 unit. The degree of coincidence at the time of searching is determined by examining a change in luminance value for each pixel by the size of the template 70 at the search position and the luminance value of the template 70. In general, evaluation is performed by sum of absolute differences (SAD) or normalized cross-correlation (NCC).
Further, noise removal processing such as a median filter may be performed in order to improve processing efficiency. Then, a point such as the road surface GR (road) where the luminance distribution clearly does not change or undulate may be passed as a point having a small feature amount.
(3) If the corresponding point is a registered point of the template 70, the object OJ moving into the template 70 is stationary, and if a corresponding point is found around the registered point of the template 70, the object OJ in the template 70 moves. It is thought that.
(4) Furthermore, regarding (3), if the camera 12 (own vehicle MT) is moving, it can be determined that the stationary object OJ follows and the object that moves backward is the background.
In the example shown in FIG. 17, the blocks of the template 70 have a linear lattice shape. However, the blocks may be distorted according to the distorted plane 26, and more finely extracted particularly in the Z direction. .

広角画像10にてフローFLが検出されると、計測マップ38を参照して、検出したフローFLの始点および終点の画像座標値[Ud,Vd]から移動前後の世界座標値[Xwm,Zwm]を求める。この場合、二次元の画像平面と三次元空間の対応は計測マップ38の作成時に演算済みであるため、毎処理ごと検出した各フローFL単位で演算を繰り返す必要がなく、例え大きなレンズ収差を持つ広角レンズ28のカメラ12で撮影された歪みを含む画像であっても、画像座標値[Ud, Vd]から計測マップ38の各座標に記録された世界座標値[Xwm, Zwm(およびYconst)]を参照することができる。これにより、始点と終点の画像座標値[Ud,Vd]に対応する世界座標値[Xwm, Yconst, Zwm]を瞬時に特定できる。
さらに、比較する移動前後の画像で撮影時に撮影時間(フレームレート)Δtを記録しておくことで、検出フローFLのX、Z座標から、物体OJの移動方向、移動速度、現在の車間距離を取得することができる。
When the flow FL is detected in the wide-angle image 10, the measurement map 38 is referred to, and the world coordinate values [Xwm, Zwm] before and after the movement are determined from the image coordinate values [Ud, Vd] of the detected start point and end point of the flow FL. Ask for. In this case, since the correspondence between the two-dimensional image plane and the three-dimensional space has already been calculated when the measurement map 38 is created, there is no need to repeat the calculation for each flow FL detected for each process, and there is a large lens aberration, for example. Even for an image including distortion captured by the camera 12 of the wide-angle lens 28, world coordinate values [Xwm, Zwm (and Yconst)] recorded from the image coordinate values [Ud, Vd] to the respective coordinates of the measurement map 38. Can be referred to. As a result, the world coordinate values [Xwm, Yconst, Zwm] corresponding to the image coordinate values [Ud, Vd] of the start point and the end point can be instantly specified.
Further, by recording the shooting time (frame rate) Δt at the time of shooting with the images before and after the movement to be compared, the moving direction, moving speed, and current inter-vehicle distance of the object OJ can be determined from the X and Z coordinates of the detection flow FL. Can be acquired.

図19及び図20に、カメラ12からの広角画像10と測定枠計測マップ52を重ねあわせたイメージを示す。図19及び図20に示す計測マップ38の背景の部分でテンプレート70の登録をパスすると、無駄な位置での探索を行わずに処理を効率化できる。すなわち、計測マップ38の測定枠44で抽出し、測定枠計測マップ52としておくと、無効データにより、不要なテンプレート70登録をパスすることができる。   19 and 20 show images in which the wide-angle image 10 from the camera 12 and the measurement frame measurement map 52 are superimposed. If the registration of the template 70 is passed in the background portion of the measurement map 38 shown in FIGS. 19 and 20, the processing can be made efficient without performing a search at a useless position. That is, when the measurement frame 44 of the measurement map 38 is extracted and set as the measurement frame measurement map 52, unnecessary template 70 registration can be passed by invalid data.

再度図17(B)を参照すると、図17(B)に示すように、測定枠44の内側のみ測定枠テンプレート70Bを登録することで、図18(B)に示すように、図18(A)と比較して、後方車両の抽出に有用なフローFLのみを当初から抽出することができる。   Referring to FIG. 17B again, as shown in FIG. 17B, by registering the measurement frame template 70B only inside the measurement frame 44, as shown in FIG. ), It is possible to extract only the flow FL useful for extracting the rear vehicle from the beginning.

このように、計測マップ38とオプティカルフロー処理とを併用して、駐車支援に使用する広角レンズ28を有するカメラ12を使用して、後方車両の抽出をすることができる。これは、追跡処理62が、カメラ12からの入力画像を連続処理してフローFLを追跡することで、車両後方の物体OJの動きを取得する処理である。この連続する画像(動画)の変化をフローFLとして追跡することで、自車MTの後方の物体OJの移動状況を自車MTとの相対的な関係で判別することができる。   As described above, the vehicle behind the vehicle can be extracted using the camera 12 having the wide-angle lens 28 used for parking assistance by using the measurement map 38 and the optical flow process together. This is a process in which the tracking process 62 acquires the motion of the object OJ behind the vehicle by continuously processing the input image from the camera 12 and tracking the flow FL. By tracking this change in continuous images (moving images) as a flow FL, the movement state of the object OJ behind the host vehicle MT can be determined based on the relative relationship with the host vehicle MT.

そして、位置参照処理64は、検出した特徴点CPのフローFLの始点および終点の[Ud,Vd]から移動前後の特徴部分CAの世界座標値[Xwm, Zwm]を求める。この場合、二次元の画像平面と三次元空間の対応は計測マップ38の作成時に演算済みであるため、毎処理ごと検出した各フローFL単位で演算を繰り返す必要がなく、大きなレンズ収差に応じた歪曲を持つ広角画像10であっても、画像座標値[Ud,Vd]から計測マップ38の各座標[Ud,Vd]に対応して記録された世界座標値[Xwm, Zwm(およびYconst)]値を参照することができる。
さらに比較する移動前後の画像で撮影時に撮影時間を記録しておくことで、検出フローFLの世界座標値[Xwm, Zwm]から、特徴部分CAを有する物体OJの移動方向、移動速度、自車MTとの車間距離を取得することができる。例えば、Z計測マップ38Bによる座標値をフローFLの始点と終点において参照することで、自車MTと物体OJとの車間距離を、(Z終点−Z始点)/Δt 撮影時間差により、接近する物体OJの向きと自車MTとの相対速度を把握することができる。
Then, the position reference process 64 obtains the world coordinate values [Xwm, Zwm] of the feature portion CA before and after the movement from the start point and end point [Ud, Vd] of the flow FL of the detected feature point CP. In this case, since the correspondence between the two-dimensional image plane and the three-dimensional space has already been calculated at the time of creating the measurement map 38, it is not necessary to repeat the calculation for each flow FL detected for each process, and according to the large lens aberration. Even for a wide-angle image 10 having distortion, world coordinate values [Xwm, Zwm (and Yconst)] recorded in correspondence with the coordinates [Ud, Vd] of the measurement map 38 from the image coordinate values [Ud, Vd]. You can refer to the value.
Further, by recording the shooting time at the time of shooting with the images before and after the movement to be compared, from the world coordinate values [Xwm, Zwm] of the detection flow FL, the moving direction, moving speed, and own vehicle of the feature O The inter-vehicle distance from the MT can be acquired. For example, by referring to the coordinate value based on the Z measurement map 38B at the start point and end point of the flow FL, the distance between the host vehicle MT and the object OJ can be calculated by (Z end point−Z start point) / Δt The relative speed between the OJ direction and the vehicle MT can be grasped.

このように、車間距離が縮まる方向に発生するフローFLについては接近の判定を行い、(背景を含め)車間距離が広がる方向に相対速度が発生するものフローFLは、他の無効なフローFLと同様に接近等の判定から除外することが出来る。
X計測マップ38Aを使用した物体OJの車線変更等に伴う接近も同様の手法で判定することができる。
As described above, the flow FL generated in the direction in which the inter-vehicle distance is reduced is determined to approach, and the flow FL in which the relative speed is generated in the direction in which the inter-vehicle distance increases (including the background) is different from other invalid flows FL. Similarly, it can be excluded from the determination of approach or the like.
The approach accompanying the lane change of the object OJ using the X measurement map 38A can also be determined by the same method.

・2.1 広角画像のオプティカルフローの効果
実施例2では、前記走行環境の世界座標系XYZでの測定枠44の範囲内について、画像座標系の画像座標値と前記世界座標系XYZの世界座標値との対応を予め記憶した計測マップ38を使用することで、広角画像10を補正せずにそのまま画像処理の対象とすることができる。特に、確認処理部60が、追跡処理62として、連続する前記広角画像10を使用して、補正をせずに歪曲したまま、前記測定枠44の範囲内の当該広角画像10での特徴点CPを追跡し(追跡処理62)、前記追跡した特徴点CPであるフローの画像座標値から前記計測マップ38を参照して、当該フローの世界座標系XYZでの位置を特定する(位置参照処理64)。このため、計算量の予測が困難で負荷が高く不安定な広角画像10自体の補正処理をすることなく、リアルタイムで、フローを抽出し、さらに、計測マップ38を参照することで、フローFLの世界座標系XYZでの世界座標値(位置)を得ることができる。
2.1 Effect of optical flow of wide-angle image In Example 2, the image coordinate value of the image coordinate system and the world coordinate value of the world coordinate system XYZ in the range of the measurement frame 44 in the world coordinate system XYZ of the driving environment By using the measurement map 38 in which the correspondence is previously stored, the wide-angle image 10 can be directly subjected to image processing without being corrected. In particular, the confirmation processing unit 60 uses the continuous wide-angle image 10 as the tracking process 62, and the feature point CP in the wide-angle image 10 within the measurement frame 44 remains distorted without correction. Is tracked (tracking process 62), and the position of the flow in the world coordinate system XYZ is specified by referring to the measurement map 38 from the image coordinate value of the flow as the tracked feature point CP (position reference process 64). ). For this reason, the flow is extracted in real time without referring to the correction processing of the wide-angle image 10 itself, which is difficult to predict the amount of calculation, and has a high load and is unstable. The world coordinate value (position) in the world coordinate system XYZ can be obtained.

このように、フローFLを抽出し、計測マップ38でフローFLの世界座標値[Xwm, Yconst, Zwm]を特定する処理により、歪み成分を考慮した上で、二次元の画像座標[Ud,Vd]に対応した三次元の世界座標値[Xwm, Yconst, Zwm]を読み取ることができるため、カメラ12から入力される広角画像10をダイレクトに高速処理できる。よって、よりレンズ収差が大きく、視野及び画角の広いカメラ12と、比較的に低スペックのCPUを使用して走行環境確認装置を構成することができる。   In this way, the flow FL is extracted, and the world coordinate value [Xwm, Yconst, Zwm] of the flow FL is specified by the measurement map 38, and the two-dimensional image coordinates [Ud, Vd 3D world coordinate values [Xwm, Yconst, Zwm] can be read, and the wide-angle image 10 input from the camera 12 can be directly processed at high speed. Therefore, the traveling environment confirmation device can be configured using the camera 12 having a larger lens aberration, a wider field of view and angle of view, and a relatively low-spec CPU.

・また、広角レンズ28による歪曲の補正をせずに、広角画像10の生の画像で特徴点CPの抽出をすることができるため、そして、歪み除去処理等の際に生じる画像の形状補正や加工が不要であるため、他の歪み補正画面を応用したオプティカルフロー処理等に対して、マッチング精度を高く維持することができる。
さらに、大きい歪曲を補正するために五次元以上の多項式を解く処理など、計算量を事前に予測できない処理を含まずに、走行環境の確認をすることができる。そして、計測マップ38を事前に準備することで、広角画像10の補正という負荷の高い処理をせず、リアルタイムにフローを抽出することができる。
・また、レンズ収差の大きなカメラ12でも対応できるので、一般的に駐車ガイド等の目的で普及したバックアイカメラを転用できる。従って、レンズ収差が小さく、視野の狭い後方監視・計測専用のカメラ12を追加する必要がない。
Further, since the feature point CP can be extracted from the raw image of the wide-angle image 10 without correcting the distortion by the wide-angle lens 28, the shape correction of the image that occurs during the distortion removal process, etc. Since processing is not required, high matching accuracy can be maintained for optical flow processing using other distortion correction screens.
Furthermore, it is possible to check the driving environment without including a process in which the calculation amount cannot be predicted in advance, such as a process of solving a polynomial having five or more dimensions in order to correct a large distortion. Then, by preparing the measurement map 38 in advance, it is possible to extract a flow in real time without performing a heavy processing such as correction of the wide-angle image 10.
In addition, since the camera 12 having a large lens aberration can be used, a back-eye camera that is generally used for the purpose of a parking guide or the like can be diverted. Therefore, it is not necessary to add a camera 12 dedicated to rearward monitoring and measurement with a small lens aberration and a narrow field of view.

そして、広角画像10を補正した後に画像処理を行う従来の手法では、歪み補正画像が元の入力画像よりも大きくなるため、取り扱う処理(登録テンプレート70の総数)が増大し画像処理が高負荷となる。また、画像サイズを元のサイズに戻す場合も、画像サイズ変換する画像処理に処理時間が必要となる。そして、縮小により画面中心付近に映る物体OJの表示サイズが小さくなり認識が難しくなる。さらに、歪み補正画像の作成作業では、画像サイズを引き伸ばす分、画素の隙間が生じるためバイリニア補完などの画素補完処理が必要となる。よって、補完処理分の処理時間が必要となる。処理に時間を要するほど、接近する物体OJの移動量が増え、その分対応点を探す範囲を大きく取らなければならない。よって処理時間がさらに必要となる。
この点、実施例2の計測マップ38による手法では、歪み補正画像を作成せず、入力される広角画像10をそのまま使用してオプティカルフロー処理を行うことができるため、画像作成時間を不要とすることができる。
In the conventional method of performing image processing after correcting the wide-angle image 10, the distortion-corrected image becomes larger than the original input image. Become. Also, when returning the image size to the original size, processing time is required for image processing for image size conversion. Then, due to the reduction, the display size of the object OJ reflected near the center of the screen becomes small and recognition becomes difficult. Further, in the creation of a distortion-corrected image, a pixel gap is generated as much as the image size is increased, and thus pixel interpolation processing such as bilinear interpolation is required. Therefore, the processing time for the complementary processing is required. The more time is required for processing, the more the moving amount of the approaching object OJ increases, and the corresponding search range must be increased accordingly. Therefore, further processing time is required.
In this regard, in the method using the measurement map 38 of the second embodiment, the distortion correction image is not created, and the optical flow process can be performed using the input wide-angle image 10 as it is, so that the image creation time is not required. be able to.

<2.2 フローの速度範囲>
次に、速度範囲68を使用して、有効フロー抽出処理66を行う例を説明する。オプティカルフローで検出したフローFLは、接近する後続車両の他に、反対斜線を走行する他車、自車MTの移動に伴う後方の物体OJなどの周辺に発生する。このフローFLを、それぞれ、自車MTの走行や運転者の操作に関係する可能性のあるフローFLと、無関係なフローFLとを区別するために、速度範囲68を使用する。すなわち、設定した仮定地上高Yconstさから外れる高さで発生したフローFLに関しては、仮定地上高Yconstとの前提条件と異なる計算となることから、速度等の演算結果が正しい値(閾値の範囲内の移動方向・速度)を示さないことを利用する。
すなわち、この例では、前記計測マップ38は、前記世界座標系XYZでの物体OJの特徴部分CAの地上高Yconstを予め仮定して、前記画像座標系UVの画像座標値[Ud,Vd]を前記世界座標系XYZの世界座標値[Xwm, Yconst, Zwm]に投影したマップである。
そして、前記記憶部14が、前記走行環境の前記仮定地上高Yconstについて前記世界座標系XYZで予め定められた速度範囲68を記憶している。速度範囲68は、Z方向(進行方向)と、X方向(左右方向)とについてそれぞれ定めておくと良い。
さらに、前記確認処理部60が、前記位置を特定した前記フローFLのうち前記速度範囲68内のフローFLを前記仮定地上高の高さの前記特徴部分CAが移動する物体OJとして抽出する有効フロー抽出処理66を備えている。
<2.2 Flow speed range>
Next, an example in which the effective flow extraction process 66 is performed using the speed range 68 will be described. The flow FL detected by the optical flow is generated in the vicinity of the following vehicle approaching, another vehicle traveling on the opposite oblique line, the rear object OJ accompanying the movement of the host vehicle MT, and the like. The speed range 68 is used to distinguish the flow FL from the flow FL that may be related to the traveling of the host vehicle MT and the operation of the driver, and the unrelated flow FL. That is, for the flow FL generated at a height that deviates from the set assumed ground height Yconst, the calculation results such as speed are correct (within the threshold range) because the calculation is different from the preconditions for the assumed ground height Yconst. (Not moving direction / speed) is used.
That is, in this example, the measurement map 38 presupposes the ground height Yconst of the characteristic portion CA of the object OJ in the world coordinate system XYZ, and calculates the image coordinate value [Ud, Vd] of the image coordinate system UV. It is the map projected on the world coordinate value [Xwm, Yconst, Zwm] of the world coordinate system XYZ.
And the said memory | storage part 14 has memorize | stored the speed range 68 predetermined by the said world coordinate system XYZ about the said assumed ground height Yconst of the said driving environment. The speed range 68 is preferably determined for each of the Z direction (traveling direction) and the X direction (left-right direction).
Further, the confirmation processing unit 60 extracts the flow FL within the speed range 68 from the flow FL whose position is specified as the object OJ in which the characteristic portion CA having the assumed ground height moves. An extraction process 66 is provided.

この例では、フローFLと計測マップ38との対応を利用し、フローFLの速度を判定することで、仮定地上高Yconst以外の高さで検出したフローを除去することが出来る。
図21を参照し、図21(A)及び(B)に示す3本のフローFLを例として、Z方向について検討する。図21(A)から(E)に示す白抜きのフローは世界座標系XYZでの実際のフローFLの速度を示し、黒色のフローは仮定地上高Yconstに投影した見かけ速度FLYを示す。
In this example, by using the correspondence between the flow FL and the measurement map 38 and determining the speed of the flow FL, the flow detected at a height other than the assumed ground height Yconst can be removed.
Referring to FIG. 21, the Z direction will be examined by taking three flows FL shown in FIGS. 21A and 21B as an example. 21A to 21E indicate the actual flow FL speed in the world coordinate system XYZ, and the black flow indicates the apparent speed FLY projected on the assumed ground height Yconst.

まず、抽出すべきフローFLに対して、フローFL始点・終点の画像座標値[Ud, Vd]に対応する世界座標系XYZのZ座標をZ計測マップ38Aより取得する。そして、移動前後の撮影時間間隔Δt、撮影時間差を基に、移動速度(Z終点−Z始点)/Δt 撮影時間差を計算する。すると、各フローFLの速度を求めることができる。なお、後ろ向きの移動方向をもつフローFLは背景として除去する。   First, for the flow FL to be extracted, the Z coordinate of the world coordinate system XYZ corresponding to the image coordinate values [Ud, Vd] of the flow FL start point / end point is acquired from the Z measurement map 38A. Then, based on the photographing time interval Δt before and after the movement and the photographing time difference, the moving speed (Z end point−Z starting point) / Δt photographing time difference is calculated. Then, the speed of each flow FL can be obtained. A flow FL having a backward movement direction is removed as a background.

この速度は、自車MTとの相対速度である。フローFLの速度範囲68の上下及び下限の設定は、使用するカメラ12の分解能や、走行環境確認の用途や、仮定地上高Yconstによって定まる。Z方向の速度がマイナスになるものは離れゆく後続車か、背景により発生したフローFLとなるので対象外となる。
Z方向については、図21(B)に示す速度範囲68の長さ以内とすると良い。
This speed is a relative speed with the host vehicle MT. The setting of the upper and lower and lower limits of the speed range 68 of the flow FL is determined by the resolution of the camera 12 to be used, the application for confirming the traveling environment, and the assumed ground height Yconst. A vehicle whose speed in the Z direction is negative is excluded because it is a following vehicle that is moving away or a flow FL generated by the background.
The Z direction is preferably within the length of the speed range 68 shown in FIG.

図21(C)に示すように、フローFLbの位置、すなわち仮定地上高Yconstの高さと一致する高さで取得したフローFLの始点及び終点に関する計測マップ38のZ値は、見かけ速度FLYbとなり、速度範囲68内となり、適切な値である。よってフローFLbが取り出せる閾値=接近車両の速度と扱うことが出来る。
一方、図21(D)に示すように、フローFLaの位置、すなわち仮定地上高Yconstの高さより高い位置で取得したフローFLはYconstの平面と実際の位置より後方で交わるので、計測された見かけ上の速度FLYaが増加し、速度範囲68よりも高速となり、除外される。
また、図21(E)に示すように、フローFLcの位置、すなわちYconst高さより低い位置で取得したフローFLはYconstの平面と実際の位置より前方で交わるので、計測された見かけ上の速度FLYcが減少する。
そして、正しい速度が取り出せるような抽出速度の閾値を設定することで、Yconstにかかる位置でのフローFLのみを抽出することが出来る。
As shown in FIG. 21C, the Z value of the measurement map 38 relating to the start point and end point of the flow FL acquired at the position corresponding to the position of the flow FLb, that is, the height of the assumed ground height Yconst, becomes the apparent speed FLYb. It is within the speed range 68 and is an appropriate value. Therefore, the threshold at which the flow FLb can be taken out can be treated as the speed of the approaching vehicle.
On the other hand, as shown in FIG. 21D, the flow FL acquired at the position of the flow FLa, that is, the position higher than the height of the assumed ground height Yconst intersects with the Yconst plane at the rear of the actual position. The upper speed FLYa increases and becomes faster than the speed range 68 and is excluded.
Further, as shown in FIG. 21E, the flow FLc acquired at the position of the flow FLc, that is, the position lower than the Yconst height intersects the Yconst plane in front of the actual position, so the measured apparent speed FLYc. Decrease.
Then, by setting a threshold value of the extraction speed at which the correct speed can be extracted, only the flow FL at the position related to Yconst can be extracted.

同様にX方向に対しても同じような速度計算を行う。また、仮定地上高Yconstを複数設定し多階層の計測マップ38を持たせる場合は、さらに抽出したフローFLの重ね合わせより、接近対象の立体的な復元を行うことができる。   Similarly, the same speed calculation is performed in the X direction. When a plurality of assumed ground heights Yconst are set to have a multi-level measurement map 38, the approach target can be three-dimensionally restored by superimposing the extracted flows FL.

X方向(自車MTの左右方向で、車線を横切る方向)の速度範囲68は、1秒間に2車線以上移動する速度(3.0×2 [m/s] ≒ 22 [km/h])以上をもつ物体OJを示すフローFLを誤対応フローFLとして除去することができる。すなわち、X方向の速度範囲68の上限は、自車MTが直進で移動する際に、後続車が1秒で2車線(3,100 [mm] × 2)を横切る速さ(6,200 [mm/sec] = 22.32 [km/h] を仮定し、設定することができる。車線の幅員は、およその平均値である。このように、1秒間で2車線の移動速度を見ておけば自車MTのふらつき移動が生じても、確認処理部60が大きく過剰反応することがない。   The speed range 68 in the X direction (the left-right direction of the vehicle MT and the direction crossing the lane) is at least 2 lanes per second (3.0 × 2 [m / s] ≒ 22 [km / h]) It is possible to remove the flow FL indicating the object OJ with the erroneous response flow FL. That is, the upper limit of the speed range 68 in the X direction is the speed (6,200 [mm / sec]) that the following vehicle crosses two lanes (3,100 [mm] x 2) in one second when the host vehicle MT moves straight ahead. = 22.32 [km / h] can be set, and the width of the lane is an average value, so if you look at the moving speed of 2 lanes per second, Even if the wobbling movement occurs, the confirmation processing unit 60 does not excessively react excessively.

Z方向の速度範囲68の下限については、下限を0とする場合、Z方向の速度が0の場合、フローFLの長さが0となる。自車MTが走行中にフローFLの長さが0となるのは、相対速度が0であり、併走車両が存在する確率が高いため、フローFLの抽出位置によっては、候補領域として抽出を行いその位置に併走車両がいないか探索を行う場合に利用できる。
また、併走する車両を検出の対象外とする仕様では、Z方向の速度範囲68の下限を+5 [km/h] に設定すると、+5 [km/h] 以下のあいまいな情報を除去できる。つまり、短いフローFLを除去できる。設定する下限速度を高めるとノイズや誤検出に強くなるが、低速移動する接近車も対象外として除去されることとなる。このため、走行環境の確認の用途や頻度、目的によって設定下限を調整すると良い。
Regarding the lower limit of the speed range 68 in the Z direction, when the lower limit is 0, when the speed in the Z direction is 0, the length of the flow FL is 0. The reason why the length of the flow FL becomes 0 while the host vehicle MT is running is that the relative speed is 0 and there is a high probability that a parallel running vehicle exists. This can be used when searching for a parallel running vehicle at that position.
Moreover, in the specification that excludes vehicles that run in parallel, if the lower limit of the speed range 68 in the Z direction is set to +5 [km / h], ambiguous information below +5 [km / h] can be removed. That is, the short flow FL can be removed. Increasing the lower limit speed to be set is more resistant to noise and erroneous detection, but approaching vehicles that move at a low speed are also excluded from the target. For this reason, it is advisable to adjust the setting lower limit according to the usage, frequency, and purpose of checking the traveling environment.

Z方向の速度範囲68の上限については、警報の実効性との関係で計算することもできる。接近車の検出と警報時間から、放置したままで衝突となり得るまでの猶予時間を1秒とする走行環境確認装置を例とする。この装置で、さらに、自車MTとの距離が11 [m] 離れた位置で接近車両の映像上のサイズが使用するテンプレート70のブロックサイズに対して小さくなりすぎて 認識できなくなるようなカメラ12を使用する場合、相対速度 40 [km/h] = 11,111 [mm/sec] の接近車は、ビデオレート1/30秒後に検出され警報を出力した1秒後には(11.1m以上 駆け抜けて)自車MTに追いつく。このため、40 [km/h] 以上の上限は設定しても無効となり、Z方向の速度範囲68のZ上限は相対速度で40 [km/h] となる。
自車MTとの距離が14m離れた位置で接近車両の映像が小さくなりすぎるカメラ12に変更した場合、14 [m/sec] × 3.6=50.4 [km/h] まで上限を設定できる。猶予時間や、テンプレート70のブロックのサイズを変更しても速度Zの上限は変化する。
The upper limit of the speed range 68 in the Z direction can also be calculated in relation to the effectiveness of the alarm. An example is a travel environment confirmation device that sets a grace period of 1 second from detection of an approaching vehicle and warning time until a collision can occur while left unattended. Furthermore, with this device, the camera 12 whose size on the image of the approaching vehicle is too small for the block size of the template 70 to be used at a position 11 [m] away from the host vehicle MT and cannot be recognized. When a vehicle is used, an approaching vehicle with a relative speed of 40 [km / h] = 11,111 [mm / sec] is detected after a video rate of 1/30 seconds and outputs an alarm (after running over 11.1m) after 1 second. Catch up with the car MT. For this reason, even if an upper limit of 40 [km / h] or more is set, the Z upper limit of the speed range 68 in the Z direction is 40 [km / h] in relative speed.
When the camera 12 is changed to a camera 12 where the image of the approaching vehicle becomes too small at a position 14 m away from the host vehicle MT, an upper limit can be set up to 14 [m / sec] × 3.6 = 50.4 [km / h]. Even if the grace time or the block size of the template 70 is changed, the upper limit of the speed Z changes.

図22は広角画像10を使用して有効フローを抽出する処理の一例を示すフローチャートである。まず、カメラ12のキャリブレーションを行い、歪みを含めたカメラ12の外部パラメーター及び内部パラメーターを測定する。そして、計測マップ38を準備しておく。   FIG. 22 is a flowchart illustrating an example of processing for extracting an effective flow using the wide-angle image 10. First, the camera 12 is calibrated, and external parameters and internal parameters of the camera 12 including distortion are measured. Then, a measurement map 38 is prepared.

実際の処理では、広角画像10を取得し(ステップS61)、続いて、テンプレート70の登録やメディアンフィルタによる画質改善などオプティカルフロー処理の前処理をする(ステップS62)。そして、特徴点CPを追跡し、フローFLを検出する(追跡処理62,ステップS63)。フローの始点と終点の画像座標値[Ud, Vd]について、計測マップ38を参照して世界座標値[Xwm, Yconst, Zwm]を特定する(位置参照処理64,ステップS64)。
続いて、フローFLの速度を算出し、速度範囲68を使用して無効フローを除去し、有効フローを抽出する(有効フロー抽出処理66,ステップS65)。続いて、フロー誤差の補正等、誤判定処理を行う(判定処理74,ステップS66)。この一連の処理をリアルタイムで繰り返す。
In actual processing, the wide-angle image 10 is acquired (step S61), and then pre-processing of optical flow processing such as registration of the template 70 and image quality improvement by a median filter is performed (step S62). Then, the feature point CP is tracked and the flow FL is detected (tracking process 62, step S63). For the image coordinate values [Ud, Vd] at the start and end points of the flow, the world coordinate values [Xwm, Yconst, Zwm] are specified with reference to the measurement map 38 (position reference process 64, step S64).
Subsequently, the velocity of the flow FL is calculated, the invalid flow is removed using the velocity range 68, and the valid flow is extracted (valid flow extraction process 66, step S65). Subsequently, erroneous determination processing such as correction of flow error is performed (determination processing 74, step S66). This series of processing is repeated in real time.

図22を参照して、実施例2の利点を説明する。
従来例では、広角画像10を取得した後、歪みを補正した補正画像を作成し、歪み補正画像の隙間を補完する処理をし、さらに、場合によっては画像サイズを修正しなければならない。一方、実施例2では、補正画像を作成することなく、オプティカルフロー前処理を行うことができる。
The advantages of the second embodiment will be described with reference to FIG.
In the conventional example, after the wide-angle image 10 is acquired, a corrected image in which distortion is corrected is created, a process for complementing the gap in the distortion-corrected image is performed, and in some cases, the image size must be corrected. On the other hand, in Example 2, optical flow preprocessing can be performed without creating a corrected image.

オプティカルフロー処理は、「極短い時間で撮影した画像を比較する場合、画面上の物体OJの移動に伴う形状変化は小さく平行移動と同等として扱うことが可能である」という仮定が前提条件となっている。歪み補正変換処理に時間を要すると、比較する次の画像の撮影が遅れ、基準とする前回の画像との時間間隔が延長される。
よって物体OJの移動量が増大し画像自体の形状変化が大きくなり画像間の一致レベルが悪化する。例えば、位置による見え方の変化として、接近車遠くのものは点に見えるため、距離の近い物同士では移動量や方向等を検出できるが、遠くにあるものと近くのものでは、ギャップが大きすぎて対応を取ることができず、特徴点CPのマッチングの精度が低下する。その結果、フローFLの検出効率が低下する。また移動量が増加すると一致箇所を探索する範囲も拡大(例:画面の端から端まで移動したら縦(or 横)ライン1 方向全部が探索調査対象)し、ますます処理時間の増加を招く。
The optical flow process is premised on the assumption that, when comparing images taken in a very short time, the shape change accompanying the movement of the object OJ on the screen is small and can be treated as equivalent to parallel movement. ing. If time is required for the distortion correction conversion process, the shooting of the next image to be compared is delayed, and the time interval with the previous image as a reference is extended.
Therefore, the amount of movement of the object OJ increases, the shape change of the image itself increases, and the matching level between images deteriorates. For example, as the appearance changes depending on the position, objects that are far from the approaching vehicle appear as dots, so it is possible to detect the amount of movement and direction between objects that are close to each other, but the gap is large between objects that are far and those that are close. Thus, it is not possible to take correspondence, and the matching accuracy of the feature point CP is lowered. As a result, the flow FL detection efficiency decreases. In addition, as the amount of movement increases, the range for searching for matching points also expands (eg, if you move from one end of the screen to the other, the entire direction of the vertical (or horizontal) line 1 is the target of search investigation), which further increases the processing time.

よって実施例2は、まず、以下の点で従来の手法より優れている。
(1)歪み除去・二次元三次元対応等の演算にかかわる要素を全て事前に計測マップ38に記録することで、毎回の変換計算を行う必要がなく処理を高速化することができるため、より視界の広い(レンズ収差の大きい)カメラ12と手ごろな(安価な・計算能力の高くない)CPUで走行環境確認装置を構成できる。
(2)歪みを含む生の広角画像10での比較については歪み除去といった類の人為的な画像の形状加工・補正が不要であり、入力画像をそのまま使用できるため、比較する画像間での形状変化をより小さく抑え、マッチング等の精度を高く維持することが可能である。
このように、フローFLの検出効率の面で補正除去画像を応用した従来の手法より優れている。
Therefore, Example 2 is superior to the conventional method in the following points.
(1) Since all elements related to operations such as distortion removal and two-dimensional / three-dimensional correspondence are recorded in the measurement map 38 in advance, it is not necessary to perform conversion calculation every time, so the processing can be speeded up. A traveling environment confirmation device can be configured with a camera 12 having a wide field of view (large lens aberration) and an affordable CPU (inexpensive and not high in calculation ability).
(2) For comparison with a raw wide-angle image 10 including distortion, it is not necessary to perform shape processing / correction of an artificial image such as distortion removal, and an input image can be used as it is. It is possible to keep the change smaller and maintain high accuracy such as matching.
As described above, the flow FL detection efficiency is superior to the conventional method using the corrected removal image.

なお、二次元画像平面から三次元世界座標への変換作業等の画像処理を行う装置では、通常、フローFLの発生をトリガとして処理を開始する。すなわち、フローFLが発生しなければ、後方視界は変化・異常なしと判断され何ら処理をしない。しかし、従来例では、フローFLの発生の有無にかかわらず広角画像10を補正しなければならず、CPUを常に稼働させなければならなかった。一方、実施例2ではフローFLを検出しない際には、計測マップ38の参照もせず何ら処理をしない。   Note that in an apparatus that performs image processing such as a conversion operation from a two-dimensional image plane to a three-dimensional world coordinate, the processing is usually started with the occurrence of a flow FL as a trigger. That is, if the flow FL does not occur, it is determined that the rear view is not changed / abnormal, and no processing is performed. However, in the conventional example, the wide-angle image 10 has to be corrected regardless of whether or not the flow FL has occurred, and the CPU must always be operated. On the other hand, in the second embodiment, when the flow FL is not detected, the measurement map 38 is not referred to and no processing is performed.

また、従来のTsaiの近似式のような補正近似計算によると、歪み補正処理により作成した画像には計算誤差が含まれる。そして、通常、カメラ12からの広角画像10から歪み補正した画像を作成する場合、補正変換した値は離散的な値となる。従って、歪み補正した画像では歪みを含む補正前の生画像とリンクができない画素が発生する。この結果、リンクできない画素位置で画素の抜けが発生した虫食い状の画像となる。このような場合、発生した虫食い画素の位置に対してはバイリニア法などの補完法で仮想的な輝度値を割付けて画素の抜けを穴埋めする作業が必要となってしまう。つまり、広角画像10の歪み補正では、広角レンズ28により集光した分を補正時に画像を外へ引き伸ばす必要があるため「生画像の画像サイズ」<「歪み補正済画像の画像サイズ」となる。その際、画像が引き伸ばされた分だけ画素の抜けが発生してしまう。   Further, according to the correction approximation calculation like the conventional Tsai approximation, the image created by the distortion correction processing includes a calculation error. In general, when an image corrected for distortion is created from the wide-angle image 10 from the camera 12, the correction-converted value is a discrete value. Therefore, pixels that cannot be linked to a raw image that includes distortion are generated in the distortion-corrected image. As a result, a worm-eaten image with missing pixels at pixel positions that cannot be linked is obtained. In such a case, it is necessary to assign a virtual luminance value to the position of the generated worm-eaten pixel by a complementary method such as a bilinear method to fill in a missing pixel. That is, in the distortion correction of the wide-angle image 10, the amount of light collected by the wide-angle lens 28 needs to be stretched outside during correction, so that “raw image size” <“distortion-corrected image size”. At that time, pixel omission occurs as much as the image is stretched.

このため、歪みを補正しない生の画像データ同士での比較に比べ、歪み補正処理により作成した画像データ同士の比較では計算誤差が付加される分画質が劣化し、特徴部分CAの本来の形状を損ねてしまう。そのため比較画像間の一致レベルが悪化しフローFLの検出効率が下がる。加えて画素の抜け位置及び補完された仮想的な輝度値も同様にフローFL検出効率に影響を及ぼす。
この点、計測マップ38にも歪み補正処理と同じように計算誤差は発生するが、フローFL検出については生画像を使用する分、画質レベルでの計算誤差は発生せず検出効率に対するそのような影響はない。
For this reason, compared with the comparison between raw image data without correcting distortion, the comparison between image data created by distortion correction processing deteriorates the image quality due to the addition of a calculation error, and the original shape of the feature portion CA is changed. It will be damaged. Therefore, the coincidence level between the comparison images is deteriorated and the detection efficiency of the flow FL is lowered. In addition, the missing pixel position and the complemented virtual luminance value similarly affect the flow FL detection efficiency.
In this respect, a calculation error also occurs in the measurement map 38 in the same manner as the distortion correction processing. However, for the flow FL detection, the calculation error at the image quality level does not occur as much as the raw image is used. There is no effect.

フローFLを検出した後、別途手段で計測マップ38に含まれる計算誤差分の補正を行うことは可能である。しかし、逆に計算誤差の含まれた歪み補正画像を使用すると、計算誤差による画像の劣化に起因してフロー自体を抽出できなくなってしまう。フローFLを抽出できなければ、事後的に補正をすることができない。このように、画像処理の基本に立ち戻り、できるだけフローFLの検出効率が下がらぬよう画質を劣化させない方向に対応するのが望ましい。この点、実施例2では、広角画像10をそのままフローFLの抽出処理に使用することができる。
また、計測マップ38の作成作業においては広角画像10の画素に対して1対1で世界座標値[Xwm, Yconst, Zwm]の割付けをしているため、各計測マップ38の値[Xwm, Zwm]はそれぞれのマップ上で連続したデータとなり離散的な配置にはならない。よって抜けや虫食いは発生せず補完処理も不要である。すなわち、「生画像の画像サイズ」=「計測マップ38のサイズ」となるので抜けは発生しない。
After detecting the flow FL, it is possible to correct the calculation error included in the measurement map 38 by a separate means. However, if a distortion-corrected image that includes a calculation error is used, the flow itself cannot be extracted due to image degradation due to the calculation error. If the flow FL cannot be extracted, it cannot be corrected afterwards. In this way, it is desirable to return to the basics of image processing and deal with a direction in which the image quality is not deteriorated so that the detection efficiency of the flow FL is not lowered as much as possible. In this regard, in the second embodiment, the wide-angle image 10 can be used for the flow FL extraction process as it is.
In the creation of the measurement map 38, the world coordinate values [Xwm, Yconst, Zwm] are assigned to the pixels of the wide-angle image 10 on a one-to-one basis, so the values [Xwm, Zwm] of each measurement map 38 are assigned. ] Is continuous data on each map and is not discretely arranged. Therefore, no omission or worm-feeding occurs, and no supplementary processing is required. That is, since “image size of the raw image” = “size of the measurement map 38”, no omission occurs.

次に、オプティカルフロー処理(ステップS63)を比較する。
従来例では、歪み補正画像作成時の変換に関する計算誤差、および画像の引き伸ばし時の隙間補完などの誤差の影響で画質の劣化を招く恐れがある。その結果、比較する移動前後の画像間での相違が増し、フローFLを検出不能となる恐れがある。
フローFLが検出できなければ、距離や速度を探索するきっかけを失うため、後処理へと処理が移行できない。すなわち、補正すべきフローFLそのものが検出されないので、位置・速度計算に対するフローFL誤差補正を行うこともできない。
Next, the optical flow process (step S63) is compared.
In the conventional example, there is a possibility that the image quality may be deteriorated due to the influence of a calculation error related to the conversion at the time of creating the distortion-corrected image and an error such as gap compensation when the image is stretched. As a result, the difference between the images before and after the movement to be compared increases, and the flow FL may not be detected.
If the flow FL cannot be detected, the opportunity to search for distance and speed is lost, so that the processing cannot be shifted to post-processing. That is, since the flow FL itself to be corrected is not detected, the flow FL error correction for the position / velocity calculation cannot be performed.

対して実施例2では、広角画像10でのフローFLは画質が劣化しない上に、全処理がより高速で進行できる分、フローFLの検出効率が高い。仮に、検出したフローFLに対応する計測マップ38の値に、量子化誤差などの計算誤差が含まれていたとしても、後処理にて誤差補正が可能である。   On the other hand, in the second embodiment, the flow FL in the wide-angle image 10 does not deteriorate the image quality, and the detection efficiency of the flow FL is high because the entire processing can proceed at a higher speed. Even if a calculation error such as a quantization error is included in the value of the measurement map 38 corresponding to the detected flow FL, the error can be corrected by post-processing.

フローFLの抽出後、従来例では、消失点FOEの位置を求め、消失点FOEとの関係で個別に世界座標系XYZの座標値を算出する。従って、FOEが求められない場合には、物体OJのフローFLの座標値を求めることができない。一方、実施例2では、計測マップ38を使用することで、画像座標値から直接世界座標値[Xwm, Yconst, Zwm]を求めることができる。従って、路面GRの白線がかすれている場合や、走行車線がカーブする場合など、FOEを求めることができない状態であっても、実施例2ではフローの世界座標値[Xwm, Yconst, Zwm]を算出することができる。   After extracting the flow FL, in the conventional example, the position of the vanishing point FOE is obtained, and the coordinate values of the world coordinate system XYZ are calculated individually in relation to the vanishing point FOE. Therefore, when the FOE cannot be obtained, the coordinate value of the flow FL of the object OJ cannot be obtained. On the other hand, in the second embodiment, by using the measurement map 38, the world coordinate values [Xwm, Yconst, Zwm] can be obtained directly from the image coordinate values. Therefore, even if the FOE cannot be obtained, such as when the white line of the road surface GR is faint or when the driving lane is curved, in the second embodiment, the flow world coordinate values [Xwm, Yconst, Zwm] Can be calculated.

次に、実施例2では、計測マップ38を用いて位置参照処理64を行う(ステップS64)。仮に、極めて高速なCPUを導入し、計測マップ38を使用せずリアルタイム計算で位置・速度を求めようとしても、計測マップ38と同様の精度を確保することが困難である。すなわち、式(14)や式(19)の特性方程式を反復法で計算値を求めることをリアルタイムで行うことは困難であり、計算量を予測できる算式を使用するしかなく、近似精度が悪化する。   Next, in Example 2, the position reference process 64 is performed using the measurement map 38 (step S64). Even if an extremely high-speed CPU is introduced and the position / velocity is obtained by real-time calculation without using the measurement map 38, it is difficult to ensure the same accuracy as the measurement map 38. In other words, it is difficult to obtain the calculated value of the characteristic equation of Expression (14) or Expression (19) by an iterative method in real time, and it is only possible to use an expression that can predict the amount of calculation, and the approximation accuracy deteriorates. .

そして、有効フロー抽出処理66(ステップS65)による有効フローの抽出では、実施例2では、フローFL自体の特徴に基づいて有効フローと無効フローとの識別をすることができ、走行環境の背景等を解析する必要がない。すなわち、仮定地上高Yconst等に応じて有効フローFLとなる速度範囲68を定めておき、この速度範囲68と比較することで有効・無効を判定するため、単純な処理で無効なフローを除外することができる。
実際、図23に示すように、速度範囲68による有効フローの抽出により、図18(B)に示すフローのうち、対向車や影による無効フローを除去することができる。
さらに、判定処理74による解析(ステップS66)では、フローを良好に抽出し、さらに有効フローを抽出し、フローの始点及び終点の世界座標値[Xwm, Yconst, Zwm]を取得しているため、情報量が多い状態から判定することができ、物体OJの車種等の識別や、走行車線の判定や、接近の程度などを良好に判定することができる。
In the effective flow extraction by the effective flow extraction process 66 (step S65), in the second embodiment, the effective flow and the invalid flow can be identified based on the characteristics of the flow FL itself. There is no need to analyze. That is, a speed range 68 that becomes an effective flow FL is determined according to the assumed ground height Yconst and the like, and in order to determine whether it is valid or invalid by comparing with the speed range 68, invalid flows are excluded by simple processing. be able to.
In fact, as shown in FIG. 23, by extracting the effective flow based on the speed range 68, the invalid flow due to the oncoming vehicle and the shadow can be removed from the flow shown in FIG.
Further, in the analysis by the determination process 74 (step S66), the flow is extracted well, the effective flow is further extracted, and the world coordinate values [Xwm, Yconst, Zwm] of the start point and end point of the flow are acquired. It is possible to determine from a state where the amount of information is large, and it is possible to satisfactorily determine the identification of the vehicle type of the object OJ, the determination of the traveling lane, the degree of approach, and the like.

・2.2 フローFLの速度範囲の効果
上述のように、仮定地上高Yconstと速度範囲68とを調整することで、予め定めた任意の高さ付近に位置する特徴部分CAについて、ナンバーやバンパー等を狙って選択的に取り出すことができる。そして、これら特徴を応用し、自車MTの走行に関連する後方や側方の物体OJの接近を示すフローFLを効率良く抽出することができる。
2.2 Effect of Flow FL Speed Range As described above, by adjusting the assumed ground height Yconst and the speed range 68, the number, bumper, etc. can be set for the feature CA located near a predetermined height. It can be picked up selectively. Then, by applying these characteristics, it is possible to efficiently extract the flow FL indicating the approach of the rear or side object OJ related to the traveling of the host vehicle MT.

<2.3 仮定地上高毎のフロー>
実施例2では、複数の計測マップ38を活用して物体OJを立体的に検出することもできる。この例では、前記記憶部14が、複数の仮定地上高毎の複数の計測マップ38を記憶し、前記確認処理部60が、複数の仮定地上高Yconst毎にフロー52を抽出する。
図24を参照すると、この例では、仮定地上高Yconstとして、Yconst1, Yconst2及びYconst3の3つの仮定地上高Yconstを定義している。計測マップ38は、図12に示すように仮定地上高毎の計測マップ38となる。この3種類の計測マップ38を使用することにより、3つのフローFLa,FLb及びFLcを抽出することができる。
<2.3 Flow for each assumed height>
In the second embodiment, the object OJ can be detected three-dimensionally using a plurality of measurement maps 38. In this example, the storage unit 14 stores a plurality of measurement maps 38 for each of a plurality of assumed ground heights, and the confirmation processing unit 60 extracts a flow 52 for each of a plurality of assumed ground heights Yconst.
Referring to FIG. 24, in this example, three assumed ground heights Yconst, Yconst1, Yconst2, and Yconst3, are defined as the assumed ground height Yconst. The measurement map 38 becomes a measurement map 38 for each assumed ground height as shown in FIG. By using these three types of measurement maps 38, three flows FLa, FLb, and FLc can be extracted.

図12に示すグループ化処理72は、この確認処理部60が複数の仮定地上高Yconst毎に抽出したフローFLa,FLb及びFLcを、図25及び図26に示すように、1つのグループGPにまとめる。このグループ化処理72は、検出してOKであったフローFLの始点と終点とに着目して、次のように、フローを三次元の世界座標系XYZにプロットする。
[Ud1i,Vd1i]⇒[Xwmi,Yconst1,Zwmi]
[Ud2j,Vd2j]⇒[Xwmj,Yconst2,Zwmj]
[Ud3k,Vd3k]⇒[Xwmk,Yconst3,Zwmk]
iはYconst1ベースの計測マップ38で見つかったフローFL総数
jはYconst2ベースの計測マップ38で見つかったフローFL総数
kはYconst3ベースの計測マップ38で見つかったフローFL総数
The grouping processing 72 shown in FIG. 12 combines the flows FLa, FLb, and FLc extracted by the confirmation processing unit 60 for each of the plurality of assumed ground heights Yconst into one group GP as shown in FIGS. . The grouping process 72 plots the flow in the three-dimensional world coordinate system XYZ as follows, paying attention to the start point and the end point of the flow FL detected and detected.
[Ud1i, Vd1i] ⇒ [Xwmi, Yconst1, Zwmi]
[Ud2j, Vd2j] ⇒ [Xwmj, Yconst2, Zwmj]
[Ud3k, Vd3k] ⇒ [Xwmk, Yconst3, Zwmk]
i is the total number of flows FL found in the measurement map 38 based on Yconst1
j is the total number of flows FL found in the measurement map 38 based on Yconst2.
k is the total number of flows FL found in the measurement map 38 based on Yconst3

判定処理74は、グループGPの全体での速度、幅及び高さの情報を使用して、後方車両であるか否かや、車両の種類などを判定する。   The determination process 74 determines whether the vehicle is a rear vehicle, the type of the vehicle, and the like using information on the speed, width, and height of the entire group GP.

・2.3 仮定地上高毎のフローの効果
この仮定地上高毎のフローを抽出することで、同一の物体OJの複数の特徴部分CAを捉えて、物体OJの種類や位置を判定することができる。具体的には、移動体であるか否か、四輪・二輪の別、走行車線について、より精度の高い判定をすることができる。
2.3 Effect of Flow for Each Assumed Ground Height By extracting the flow for each assumed ground height, the type and position of the object OJ can be determined by capturing a plurality of characteristic portions CA of the same object OJ. Specifically, it is possible to make a more accurate determination as to whether or not the vehicle is a moving body, whether it is a four-wheeled or two-wheeled vehicle, and a traveling lane.

・2.4 応用例
前方監視
カメラ12の単体では検出した接近車の位置情報は自車MTからの相対位置・相対速度しか入手できないが、車速センサー82や操舵角センサー84等の各種センサーを追加すると、「計測マップ38から入手した背景の移動量」=「センサーから入手した自車MTの移動量」の関係から、「自車MTの移動速度」と「フロー+計測マップ38」の差分判定により、障害物の絶対速度を確認することもできる。
それらを応用すると前方向で前から後ろに流れる背景と、自車MTより遅い速度で走る前方車両の区別をすることができる。つまり、実施例2は、自動追従・衝突判定などの用途に向けて単眼広角のカメラ12を前方監視用のカメラ12として使用し、判定システムを構成することができる。
・ 2.4 Application example Forward monitoring Although the position information of the approaching vehicle detected by the camera 12 alone can only be obtained from the relative position and relative speed from the own vehicle MT, if various sensors such as the vehicle speed sensor 82 and the steering angle sensor 84 are added, From the relationship of “the amount of movement of the background obtained from the measurement map 38” = “the amount of movement of the host vehicle MT obtained from the sensor”, the difference determination between the “movement speed of the host vehicle MT” and the “flow + measurement map 38” is performed. You can also check the absolute speed of the obstacle.
When these are applied, it is possible to distinguish the background flowing from front to back in the forward direction and the forward vehicle running at a speed slower than the own vehicle MT. That is, in the second embodiment, the determination system can be configured by using the monocular wide-angle camera 12 as the front monitoring camera 12 for applications such as automatic tracking and collision determination.

歪みのあるカメラ12では、「画像中の物体OJの移動がFOE(無限遠点)から発散・収縮方向の直線上を移動する」動きにならないため、従来の手法では対応できない。また、その際の画面中の移動量も、歪みによる影響のため計測できない(=車速計との対応ができない)。この点、計測マップ38を使用すれば、歪んだ広角画像10での物体OJの相対距離・相対速度が求まるから、あとは速度計から取得した自車MTの挙動を差し引きすれば、背景と接近車両の区別ができ前方監視に対応できる。   In the camera 12 with distortion, since the movement “the movement of the object OJ in the image moves on the straight line in the direction of divergence / contraction from the FOE (infinite point)” does not become a movement, it cannot be handled by the conventional method. Also, the amount of movement in the screen at that time cannot be measured due to the influence of distortion (= cannot be compatible with a vehicle speedometer). In this regard, if the measurement map 38 is used, the relative distance and the relative speed of the object OJ in the distorted wide-angle image 10 can be obtained. Then, if the behavior of the own vehicle MT obtained from the speedometer is subtracted, the background is approached. The vehicle can be distinguished and can be used for forward monitoring.

コーナーリングでの車両周辺監視への応用
車速センサー82や、操舵角センサー84や、ナビゲーション装置88を併用すると、絶対速度の他に接近車両と自車MTについて基準点に対する絶対系での位置・移動方向・速度を推定することができる。道路情報や操舵角センサー84による操舵始動判定などを用い、カーブの入り口手前等で基準点を設定するなどの処理により、曲がり道・コーナーリング上での接近車両の動向を判定することができる。この例では、コーナーリング中でのFOEの移動量を計算する必要はない。歪んだカメラ12で画像中の物体OJの相対距離・相対速度を求め、基準点に対する自車MTの移動速度・旋回方向の合成ベクトルから背景と接近車両の区別ができ前方監視にも対応できる。
Application to vehicle periphery monitoring in cornering When the vehicle speed sensor 82, the steering angle sensor 84, and the navigation device 88 are used in combination, the position / movement direction in the absolute system with respect to the reference point for the approaching vehicle and the own vehicle MT in addition to the absolute speed・ The speed can be estimated. By using road information, steering start determination by the steering angle sensor 84, or the like, a trend of approaching vehicles on a curved road / corner ring can be determined by processing such as setting a reference point before the entrance of the curve. In this example, it is not necessary to calculate the amount of FOE movement during cornering. The relative distance / relative speed of the object OJ in the image is obtained by the distorted camera 12, and the background and the approaching vehicle can be distinguished from the combined vector of the moving speed / turning direction of the own vehicle MT with respect to the reference point.

従来の手法では、接近車判別・危険度予測に対し「FOEを原点とした画像中の2次元画像平面でのベクトル合成(自車MTの速度や旋回に対する移動ベクトルと、背景「静止による点ベクトル」や周辺車両の移動ベクトル)を基準に処理している。しかしながら歪みのあるカメラ12では、レンズ収差による屈折による影響により、二次元画像上でFOEを基準としたベクトルの考え方が通用しない。一方、実施例2では、計測マップ38を用いることで、三次元空間上のベクトル合成を基本とし、歪みのあるカメラ12でもコーナーリング中での判別処理に対応することができる。   In the conventional method, for approaching vehicle discrimination / risk level prediction, “vector synthesis on the two-dimensional image plane in the image with FOE as the origin (moving vector for the speed and turning of the vehicle MT and the background“ point vector due to stationary ” ”And movement vectors of surrounding vehicles). However, in the camera 12 with distortion, the concept of vectors based on FOE on a two-dimensional image is not valid due to the influence of refraction due to lens aberration. On the other hand, in the second embodiment, using the measurement map 38 is based on vector synthesis in a three-dimensional space, and even a distorted camera 12 can cope with a discrimination process during cornering.

<3 歪画像補正装置>
次に、実施例3の歪画像補正装置を開示する。図27に示すように、歪画像補正装置は、主要な構成として、記憶部14と、補正処理部100とを備えている。記憶部14は、広角レンズを有するカメラ12の外部パラメーターr,t及び内部パラメーターaを記憶している。この記憶部14は、実施例1及び2と同様に、複数の座標系を定義する座標系定義18と、各座標系の関係を表す複数の座標関係式20と、各座標関係式の係数となる関係式パラメーター群22とを記憶している。
実施例3では、前記座標系定義18による座標系として、実施例1及び2と同様の前記広角画像10の画素を単位とする二次元の画像座標系UVの他、本実施例3に特有な拡大補正画像座標系と、拡大理想平面座標系と、歪曲平面座標系と、表示座標系とを有する。
<3 Distorted image correction device>
Next, a distortion image correction apparatus according to Embodiment 3 is disclosed. As shown in FIG. 27, the distorted image correction apparatus includes a storage unit 14 and a correction processing unit 100 as main components. The storage unit 14 stores external parameters r and t and an internal parameter a of the camera 12 having a wide-angle lens. As in the first and second embodiments, the storage unit 14 includes a coordinate system definition 18 that defines a plurality of coordinate systems, a plurality of coordinate relational expressions 20 that represent the relationships among the coordinate systems, and coefficients of the coordinate relational expressions. The following relational expression parameter group 22 is stored.
In the third embodiment, the coordinate system defined by the coordinate system definition 18 is unique to the third embodiment, in addition to the two-dimensional image coordinate system UV that uses the pixels of the wide-angle image 10 as in the first and second embodiments. It has an enlarged corrected image coordinate system, an enlarged ideal plane coordinate system, a distorted plane coordinate system, and a display coordinate system.

拡大補正画像座標系は、前記広角の程度に応じてサイズを拡大した拡大補正画像102を扱う。例えば、縦横の長さをそれぞれ広角画像10の2倍のサイズとする。広角画像10の画素数が640 x 480の場合には、拡大補正画像座標系の画素数を1280 x 960とする。この広角の程度に応じた拡大は、広角レンズ28を使用せず同一の最大視野を線形で撮像する場合に必要となる拡大率である。
図23に示すように、単位面積当たりの画素の大きさを同一とすると、拡大補正画像102のサイズは、広角画像10よりも大きい。
The enlarged corrected image coordinate system handles the enlarged corrected image 102 whose size is enlarged according to the degree of the wide angle. For example, the vertical and horizontal lengths are each twice the size of the wide-angle image 10. When the number of pixels of the wide-angle image 10 is 640 × 480, the number of pixels in the enlarged corrected image coordinate system is set to 1280 × 960. The enlargement according to the degree of wide angle is an enlargement factor that is necessary when the same maximum field of view is imaged linearly without using the wide angle lens 28.
As shown in FIG. 23, if the size of the pixels per unit area is the same, the size of the enlarged corrected image 102 is larger than that of the wide-angle image 10.

拡大理想平面座標系は、実施例1及び2の理想平面XcmYcmと同様にイメージ・プレーンであり、前記拡大補正画像座標系と同一サイズに拡大され、前記画像座標系を歪曲のない理想的な二次元の拡大理想平面に投影した座標系である。すなわち、理想平面XcmYcmのサイズを拡大した座標系である。そして、拡大補正画像座標系の座標値は、世界座標系XYZの座標値と線形に対応する。   The enlarged ideal plane coordinate system is an image plane similar to the ideal plane XcmYcm of the first and second embodiments, is enlarged to the same size as the enlarged corrected image coordinate system, and the image coordinate system is an ideal two-dimensional image without distortion. This is a coordinate system projected onto an enlarged ideal plane of dimensions. That is, the coordinate system is an enlarged size of the ideal plane XcmYcm. The coordinate values of the enlarged corrected image coordinate system correspond linearly to the coordinate values of the world coordinate system XYZ.

歪曲平面座標系は、実施例1及び2の歪曲平面XcdYcdに対応するイメージ・プレーンであり、前記広角レンズ28による前記広角画像の歪曲を前記拡大理想平面に投影して歪曲平面とした座標系である。拡大理想平面座標系の座標値と、歪曲平面座標系の座標値とは、座標関係式(式(25),式(27)等)で広角レンズ28による歪みを補正可能である。そして、実施例3では、実施例2の表示部90及び表示制御部92(図14)よりも高解像度で表示するための表示座標系を有している。   The distortion plane coordinate system is an image plane corresponding to the distortion plane XcdYcd of the first and second embodiments, and is a coordinate system in which distortion of the wide-angle image by the wide-angle lens 28 is projected onto the enlarged ideal plane to form a distortion plane. is there. The coordinate value of the enlarged ideal plane coordinate system and the coordinate value of the distorted plane coordinate system can correct the distortion caused by the wide-angle lens 28 by a coordinate relational expression (formula (25), formula (27), etc.). The third embodiment has a display coordinate system for displaying with higher resolution than the display unit 90 and the display control unit 92 (FIG. 14) of the second embodiment.

そして、補正処理部100は、カメラ12から入力される広角画像10の歪曲を補正する。この補正処理部100は、主要な構成として、図27に示すように、拡大理想平面化処理110と、歪曲平面化処理112と、拡大補正画像化処理114と、歪画像補正制御処理116とを備えている。   The correction processing unit 100 corrects distortion of the wide-angle image 10 input from the camera 12. As shown in FIG. 27, the correction processing unit 100 includes an enlarged ideal planarization process 110, a distortion planarization process 112, an enlarged corrected imaging process 114, and a distorted image correction control process 116, as shown in FIG. I have.

拡大理想平面化処理110は、前記拡大補正画像102の座標値[Umaa, Vmaa]を前記拡大理想平面の座標値[Xcmaa, Ycmaa]に変換する。この拡大理想平面化処理110は、主に、カメラ12の内部パラメーターaと中心位置Cxm, Cxyとによる補正をすることで(後述式(22))、カメラ12の広角画像10をイメージ・プレーンである拡大理想平面に投影させる。 Enlarge ideal plane processing 110 converts the coordinate value of the expansion correction image 102 [Uma a, Vma a] coordinate values of the enlargement ideal plane [Xcma a, Ycma a] to. The enlarged ideal planarization processing 110 mainly corrects the wide-angle image 10 of the camera 12 by an image plane by correcting the internal parameter a of the camera 12 and the center positions Cxm and Cxy (formula (22) described later). Project onto an enlarged ideal plane.

歪曲平面化処理112は、前記拡大理想平面の座標値[Xcmaa, Ycmaa]を前記歪曲平面の座標値[Xcd, Ycd]に変換する。この歪曲平面化処理112は、主に、広角レンズ28による歪曲を補正することで(後述式(25),式(27))、拡大したイメージ・プレーンにて、広角画像10の歪みを補正する。 The distortion flattening process 112 converts the coordinate value [Xcma a , Ycma a ] of the enlarged ideal plane into the coordinate value [Xcd, Ycd] of the distortion plane. The distortion flattening process 112 mainly corrects distortion caused by the wide-angle lens 28 (formula (25) and formula (27) described later), thereby correcting the distortion of the wide-angle image 10 using the enlarged image plane. .

拡大補正画像化処理114は、前記歪曲平面の座標値[Xcd, Ycd]を前記広角画像10の座標値[Ud, Vd]に変換する。この拡大補正画像化処理114は、イメージ・プレーンで広角歪みを補正した座標値[Xcd, Ycd]を、広角画像10の座標値[Ud, Vd]に対応付けることで(後述式(28))、拡大した歪みのあるイメージ・プレーンの座標値[Xcd, Ycd]と、カメラ12が撮像した広角画像10の座標値[Ud, Vd]とを対応付ける。   The enlarged corrected imaging process 114 converts the coordinate value [Xcd, Ycd] of the distorted plane into the coordinate value [Ud, Vd] of the wide-angle image 10. The enlargement correction imaging process 114 associates the coordinate values [Xcd, Ycd] obtained by correcting the wide-angle distortion with the image plane with the coordinate values [Ud, Vd] of the wide-angle image 10 (formula (28) described later), The coordinate values [Xcd, Ycd] of the enlarged image plane with distortion are associated with the coordinate values [Ud, Vd] of the wide-angle image 10 captured by the camera 12.

歪画像補正制御処理116は、前記拡大補正画像102の画素毎に、対応する前記歪曲平面の座標値[Xcd, Ycd]に応じた広角画像10の座標値[Ud, Vd]の値を参照することで、前記拡大補正画像座標系での拡大補正画像102の生成を制御する。   The distorted image correction control processing 116 refers to the value of the coordinate value [Ud, Vd] of the wide-angle image 10 corresponding to the coordinate value [Xcd, Ycd] of the corresponding distorted plane for each pixel of the enlarged corrected image 102. Thus, the generation of the enlarged corrected image 102 in the enlarged corrected image coordinate system is controlled.

広角画像10と拡大補正画像102では、図28に示すように、画像の中心位置が異なる。広角画像10の横方向の画素数をUdとし、拡大補正画像102の横方向の画素数をUmとすると、それぞれの画素中心は、次式 (20a)に示す関係となる。縦方向についても、次式(20b)に示す通りである。
そして、次式(21)の関係から、次式(22a)及び(22b)を導出でき、従って、式(22b)を使用して、拡大補正画像102の各座標値[Umaa, Vmaa]を、拡大理想平面の座標値[Xcmaa, Ycmaa]に変換することができる。
The wide-angle image 10 and the enlarged corrected image 102 have different image center positions as shown in FIG. If the number of pixels in the horizontal direction of the wide-angle image 10 is Ud and the number of pixels in the horizontal direction of the enlarged corrected image 102 is Um, the respective pixel centers have a relationship represented by the following equation (20a). The vertical direction is as shown in the following equation (20b).
Then, from the relationship of the following equation (21), the following equations (22a) and (22b) can be derived. Therefore, using the equation (22b), each coordinate value [Uma a , Vma a ] of the enlarged corrected image 102 is obtained. Can be converted into coordinate values [Xcma a , Ycma a ] of the enlarged ideal plane.

[Cxd, Cyd]: 広角画像10の中心位置
Ud, Vd: 広角画像10の画素数
[Cxm, Cym]: 拡大補正画像102の中心位置
Um, Vm: 拡大補正画像102の画素数
[Xcmaa, Ycmaa]: 拡大理想平面座標系(線形のイメージ・プレーン)での拡大理想平面座標値(二次元平面)
[Umaa, Vcmaa]: 拡大補正画像102の座標値(二次元平面)
ann: カメラ12の内部パラメーターで線形歪み(式(1),式(6a)と同一の値)
[Cxd, Cyd]: Center position of wide-angle image 10
Ud, Vd: Number of pixels of wide-angle image 10
[Cxm, Cym]: Center position of the enlarged corrected image 102
Um, Vm: Number of pixels of the enlarged corrected image 102
[Xcma a , Ycma a ]: Expanded ideal plane coordinate value (two-dimensional plane) in the expanded ideal plane coordinate system (linear image plane)
[Uma a , Vcma a ]: Coordinate values of the enlarged corrected image 102 (two-dimensional plane)
a nn : Linear distortion with the internal parameters of the camera 12 (same values as in the equations (1) and (6a))

式(21)から式(22)の内部パラメーターaは実施例1及び2での値と同一の値を使用することができる。拡大補正画像102の各画素[Umaa, Vmaa]は、この内部パラメーターaと補正した画像中心Cxm, Cymとにより、イメージ・プレーン上の拡大理想平面の座標値[Xcmaa, Ycmaa]へ変換することができる。式(22b)により推定したイメージ・プレーン上の座標値[Xcmaa, Ycmaa]は、式(5b),式(5c)により、実空間上の世界座標値[Xw, Yconst, Zw]に結像するとして取り扱うことができる。広角レンズ28による歪みのない画像の場合、式(8a),式(8b)のk1, k2, k3項や、式(10a),式(10b)のp1, p2, p3項の値は全て0となるため、Xcm = Xcd、Ycm = Ycdとなるが、実施例3では、実施例1及び2と同様に、この広角レンズ28による歪みを考慮しなければならない。このため、拡大理想平面座標系に対応して、歪曲平面座標系を定義し、対応付ける。 As the internal parameter a in the equations (21) to (22), the same values as those in the first and second embodiments can be used. Each pixel [Uma a , Vma a ] of the enlarged corrected image 102 is converted to the coordinate value [Xcma a , Ycma a ] of the enlarged ideal plane on the image plane by the internal parameter a and the corrected image centers Cxm, Cym. Can be converted. The coordinate values [Xcma a , Ycma a ] estimated by the equation (22b) are connected to the world coordinate values [Xw, Yconst, Zw] in the real space by the equations (5b) and (5c). It can be handled as an image. In the case of an image without distortion by the wide-angle lens 28, the values of the k1, k2, k3 terms in the equations (8a) and (8b) and the p1, p2, and p3 terms in the equations (10a) and (10b) are all 0. Therefore, Xcm = Xcd and Ycm = Ycd. However, in the third embodiment, the distortion caused by the wide-angle lens 28 must be taken into consideration as in the first and second embodiments. For this reason, a distorted plane coordinate system is defined and associated with the enlarged ideal plane coordinate system.

そして、実施例3では、好ましくは、前記記憶部14が、前記歪曲平面座標系と前記拡大理想平面座標系との前記座標関係式として、放射歪曲を補正する放射歪曲補正式(25)と、対数歪曲を補正する対数歪曲補正式(27)とを有すると良い。そして、前記歪曲平面化処理112が、前記拡大理想平面座標系又は前記歪曲平面座標系での予め定められた校正円Rckの内部には前記放射歪曲補正式(25)を使用し、当該校正円Rckの外部には前記対数歪曲補正式(27)を使用して、前記歪曲平面座標値を前記理想平面座標値に変換する拡大切替処理113を備えると良い。   And in Example 3, Preferably, the said memory | storage part 14 is a radial distortion correction formula (25) which correct | amends radial distortion as said coordinate relational expression of the said distortion plane coordinate system and the said expansion ideal plane coordinate system, It is preferable to have a logarithmic distortion correction formula (27) for correcting logarithmic distortion. Then, the distortion flattening process 112 uses the radial distortion correction formula (25) inside a predetermined calibration circle Rck in the enlarged ideal plane coordinate system or the distortion plane coordinate system, and the calibration circle An enlargement switching process 113 for converting the distortion plane coordinate value into the ideal plane coordinate value using the logarithmic distortion correction formula (27) may be provided outside the Rck.

校正円Rckは、実施例3では、拡大理想平面に定義される円であり、次式(23)で表される各座標値での直径と比較される。そして、次式群では、拡大理想平面での座標値が校正円Rcmakの内部であるか否かに応じて、放射歪曲補正式(25)と対数歪曲補正式(27)とを切り替える。   In the third embodiment, the calibration circle Rck is a circle defined on the enlarged ideal plane, and is compared with the diameter at each coordinate value represented by the following equation (23). In the next equation group, the radial distortion correction equation (25) and the logarithmic distortion correction equation (27) are switched depending on whether or not the coordinate value on the enlarged ideal plane is inside the calibration circle Rcmak.

Rcmaa: 拡大理想平面座標系の座標値[Xcmaa, Ycmaa]の半径
Rck: 拡大理想平面座標系での校正円Rck(の半径)
[Xcdaa, Ycdaa]: 歪曲平面座標系(歪みのあるイメージ・プレーン)での歪曲平面座標値(二次元平面)
kn: 拡大理想平面と歪曲平面の関係を特定するための放射歪曲補正パラメーター
pn: 拡大理想平面と歪曲平面の関係を特定するための対数歪曲補正パラメーター
[Ud, Vd]: 広角画像10の座標値(式(1)及び式(9)等と同一)
添字Tは行列の転置を指す。
Rcma a : radius of the coordinate value [Xcma a , Ycma a ] of the enlarged ideal plane coordinate system
Rck: Calibration circle Rck (radius) in the enlarged ideal plane coordinate system
[Xcda a , Ycda a ]: Distorted plane coordinate value (two-dimensional plane) in the distorted plane coordinate system (distorted image plane)
k n : Radial distortion correction parameter for specifying the relationship between the enlarged ideal plane and the distortion plane
p n : Logarithmic distortion correction parameter for specifying the relationship between the enlarged ideal plane and the distortion plane
[Ud, Vd]: Coordinate value of wide-angle image 10 (same as equation (1), equation (9), etc.)
The subscript T refers to the transpose of the matrix.

式(22b)を用いて、拡大補正画像102の座標値を拡大理想平面の座標値に対応付けた後、式(24)から式(27)を用いて、この拡大理想平面の座標値に含まれている歪曲を補正する。ここでは、拡大理想平面の座標値[Xcmaa, Ycmaa]による直径が、予め定められた校正円Rckの内部であるか否かにより使用する算式を切り替える。校正円Rckの内部である場合には、放射歪曲補正式(25)を用いる。放射歪曲補正パラメーターkと、直径Rcmaとにより、この式(25)により、拡大されている拡大理想平面での座標値[Xcmaa, Ycmaa]は、歪曲平面の座標値[Xcd, Ycd]に縮小されつつ、広角レンズ28による歪みが補正される。対数歪曲補正式の対数歪曲補正パラメーターp(27)についても同様の役割を果たす。 After associating the coordinate value of the enlarged corrected image 102 with the coordinate value of the enlarged ideal plane using equation (22b), it is included in the coordinate value of this enlarged ideal plane using equations (24) to (27). Correct the distortion. Here, the formula to be used is switched depending on whether or not the diameter based on the coordinate values [Xcma a , Ycma a ] of the enlarged ideal plane is within a predetermined calibration circle Rck. If it is inside the calibration circle Rck, the radial distortion correction formula (25) is used. With the radial distortion correction parameter k and the diameter Rcma, the coordinate value [Xcma a , Ycma a ] in the enlarged ideal plane is expanded to the coordinate value [Xcd, Ycd] of the distortion plane by this equation (25). While being reduced, distortion caused by the wide-angle lens 28 is corrected. The logarithmic distortion correction parameter p (27) of the logarithmic distortion correction formula also plays the same role.

式(28)は、式(9)と同一であり、歪曲平面の座標値[Xcd, Ycd]と、広角画像10の座標値[Ud, Vd]とを内部パラメーターaと中心位置[Cxd, Cyd]とを使用して対応付けている。   Expression (28) is the same as Expression (9). The coordinate value [Xcd, Ycd] of the distorted plane and the coordinate value [Ud, Vd] of the wide-angle image 10 are represented by the internal parameter a and the center position [Cxd, Cyd. ] To match.

図29は、歪補正画像生成処理の一例を示すフローチャートである。
拡大理想平面化処理110は、記憶部14に、歪補正画像バッファーを確保する(ステップS71)。この歪補正画像バッファーは、拡大補正画像102と同一のサイズで領域確保する。そして、校正円Rckが入力される(ステップS72)。次に、拡大理想平面化処理110は、拡大補正画像102の座標値[Umaai, Vmaai]を特定して、式(22b)を用いて、拡大理想平面の座標値[Xcmaa, Ycmaa]を特定する(ステップS73)。歪曲平面化処理112は、拡大理想平面の座標値[Xcmaa, Ycmaa]の直径Rcmaaを算出して、校正円Rckと比較する(ステップS74)。校正円Rck内であれば、放射歪曲式(25)を用いて広角レンズ28による歪みを補正し(ステップS77)、校正円Rck内でなければ、対数歪曲補正式(27)を用いて歪みを補正する(ステップS77)。この歪みが補正された座標値は、イメージ・プレーン上の歪曲平面の座標値[Xcd, Ycd]となる。
FIG. 29 is a flowchart illustrating an example of the distortion-corrected image generation process.
The enlarged ideal planarization process 110 secures a distortion corrected image buffer in the storage unit 14 (step S71). This distortion-corrected image buffer secures an area with the same size as the enlarged corrected image 102. Then, the calibration circle Rck is input (step S72). Next, the enlarged ideal planarization process 110 specifies the coordinate values [Uma a i, Vma a i] of the enlarged corrected image 102 and uses the equation (22b) to express the coordinate values [Xcma a , Ycma a ] is specified (step S73). The distortion flattening process 112 calculates the diameter Rcma a of the coordinate values [Xcma a , Ycma a ] of the enlarged ideal plane and compares it with the calibration circle Rck (step S74). If within the calibration circle Rck, the distortion caused by the wide-angle lens 28 is corrected using the radial distortion formula (25) (step S77), and if not within the calibration circle Rck, the distortion is calculated using the logarithmic distortion correction formula (27). Correction is performed (step S77). The coordinate value corrected for this distortion is the coordinate value [Xcd, Ycd] of the distortion plane on the image plane.

拡大補正画像処理114は、歪曲平面の座標値[Xcd, Ycd]に対応する広角画像10の座標値[Ud, Vd]を式(28)により算出する。このステップS73からステップS78により、拡大補正画像102の座標値[Umaai, Vmaaj]に対応する広角画像10の座標値[Ud, Vd]を特定することができる(ステップS79)。そして、拡大補正画像102の全体について、ステップS73からステップS79を繰り返す(ステップS80,S81,S82,S83)。図28に示す例では、右側の拡大補正画像の図中左上から走査を開始して、拡大補正画像の各座標値[Umaai, Vmaai]に対応する広角画像10の座標値[Ud, Vd]を特定し、この広角画像の座標値[Ud, Vd]の値(例えば、広角画像10がグレースケールであれば濃度値)を読み取り、当該拡大補正画像の座標値[Umaai, Vmaai]の値とする。この広角画像10の座標値の値を参照することで、拡大補正画像を生成する。なお、拡大補正画像の座標値からの計算上、広角画像10の外を参照することがあり、この場合、参照を無効とし、例えば黒色とする。 The enlarged corrected image processing 114 calculates the coordinate value [Ud, Vd] of the wide-angle image 10 corresponding to the coordinate value [Xcd, Ycd] of the distorted plane by the equation (28). In step S78 from the step S73, it is possible to identify the coordinate value [Uma a i, Vma a j ] of the expansion correction image 102 coordinate values of the wide-angle image 10 corresponding to [Ud, Vd] (steps S79). Then, step S73 to step S79 are repeated for the entire enlarged corrected image 102 (steps S80, S81, S82, S83). In the example shown in FIG. 28, scanning is started from the upper left in the drawing of the right-side enlarged corrected image, and the coordinate values [Ud of the wide-angle image 10 corresponding to the respective coordinate values [Uma a i, Vma a i] of the enlarged corrected image. , Vd] is specified, the coordinate value [Ud, Vd] of the wide-angle image is read (for example, the density value if the wide-angle image 10 is grayscale), and the coordinate value [Uma a i, Vma a i]. By referring to the coordinate value of the wide-angle image 10, an enlarged corrected image is generated. In addition, in the calculation from the coordinate value of the enlarged corrected image, the outside of the wide-angle image 10 may be referred to. In this case, the reference is invalidated, for example, black.

補正処理部100は、生成した拡大補正画像102を、例えば、ドライバー用の表示部90に表示する。広角画像10と拡大補正画像102とを切替表示する際には、拡大補正画像102の表示は高解像度の画像として表示制御すると良い。   The correction processing unit 100 displays the generated enlarged corrected image 102 on, for example, a driver display unit 90. When switching and displaying the wide-angle image 10 and the enlarged corrected image 102, the display of the enlarged corrected image 102 may be controlled as a high-resolution image.

図27から図29に示す手法では、拡大補正画像102から広角画像10への参照にて、拡大補正画像102の異なる座標値から、広角画像10の同一の座標値への参照が生ずる。この重複により、拡大補正画像102の精度は悪化する。   In the method shown in FIG. 27 to FIG. 29, the reference from the enlarged corrected image 102 to the same coordinate value of the wide angle image 10 occurs from the different coordinate values of the enlarged corrected image 102 when the enlarged corrected image 102 is referred to the wide angle image 10. Due to this overlap, the accuracy of the enlarged corrected image 102 deteriorates.

また、図27に示す例では、簡易マップ生成処理118を備えている。簡易マップ生成処理118は、拡大理想平面や歪曲平面を使用して、広角画像10の各画素に世界座標値を対応付ける簡易な計測マップを生成する。計測マップは、広角画像10の座標値[Ud, Vd]に、対応する世界座標値[Xw, Yconst, Zw]を対応させたテーブルである。世界座標値[Xw, Yconst, Zw]は、拡大理想平面の座標値[Xcmaa, Ycmaa]と対応するため、広角画像10の座標値と、拡大理想平面の座標値[Xcmaa, Ycmaa]と対応させることで、簡易計測マップを生成することができる。 In the example shown in FIG. 27, a simple map generation process 118 is provided. The simple map generation process 118 generates a simple measurement map that associates a world coordinate value with each pixel of the wide-angle image 10 using an enlarged ideal plane or a distorted plane. The measurement map is a table in which the coordinate values [Ud, Vd] of the wide-angle image 10 are associated with the corresponding world coordinate values [Xw, Yconst, Zw]. Since the world coordinate values [Xw, Yconst, Zw] correspond to the coordinate values [Xcma a , Ycma a ] of the enlarged ideal plane, the coordinate values of the wide-angle image 10 and the coordinate values [Xcma a , Ycma a of the enlarged ideal plane] ], It is possible to generate a simple measurement map.

実施例1及び2では、図5に示すように、広角画像10の座標値[Ud, Vd]から歪曲平面の座標値[Xcd, Ycd]を特定し、式(2)又は式(3)を用いて理想平面の座標値[Xcm, Ycm]に変換し、そして式(4)を用いて世界座標値[Xwm, Ywm, Zwm]を特定する。これにより、広角画像10の座標値[Ud, Vd]毎の世界座標値[Xwm, Yconst, Zwm]を求めて計測マップとする。   In the first and second embodiments, as shown in FIG. 5, the coordinate value [Xcd, Ycd] of the distorted plane is specified from the coordinate value [Ud, Vd] of the wide-angle image 10, and the equation (2) or the equation (3) is obtained. Is used to convert to the coordinate value [Xcm, Ycm] of the ideal plane, and the world coordinate value [Xwm, Ywm, Zwm] is specified using equation (4). Thereby, the world coordinate values [Xwm, Yconst, Zwm] for each coordinate value [Ud, Vd] of the wide-angle image 10 are obtained and used as a measurement map.

実施例3では、図29に示す手順で求めた拡大補正画像102の座標値[Umaa, Vmaa]又は拡大理想平面の座標値[Xcmaa, Ycmaa]から世界座標値[Xwm, Yconst, Zwm]を求めて簡易計測マップとする。拡大補正画像102は、線形であり、世界座標値[Xwm, Yconst, Zwm]と一対一で対応している。しかし、拡大補正画像102には参照対象が重複した座標値があり、この誤差が世界座標値の誤差となる。 In the third embodiment, the coordinate values [Uma a , Vma a ] of the enlarged corrected image 102 obtained by the procedure shown in FIG. 29 or the coordinate values [Xcma a , Ycma a ] of the enlarged ideal plane are used as the world coordinate values [Xwm, Yconst, Zwm] is obtained and used as a simple measurement map. The enlarged corrected image 102 is linear and has a one-to-one correspondence with the world coordinate values [Xwm, Yconst, Zwm]. However, the enlarged corrected image 102 has coordinate values with overlapping reference objects, and this error becomes an error of the world coordinate value.

このように、広角画像10と拡大補正画像102の画像サイズの相違分、データの隙間となる画素抜けが生ずるか、重複が生ずる。そして、図29等に示す手順によると、重複は生ずるが、バイリニア補完等の画素抜けによる虫食い箇所の穴埋め対策をしなくとも、虫食い画像とはならない。   As described above, pixel omission that becomes a data gap or overlap occurs due to the difference in image size between the wide-angle image 10 and the enlarged corrected image 102. Then, according to the procedure shown in FIG. 29 and the like, duplication occurs, but a worm-eaten image cannot be obtained without taking measures against filling in a worm-eaten portion by missing pixels such as bilinear interpolation.

そして、広角画像10の座標値は整数値である一方、拡大補正画像102をイメージ・プレーンに投影した拡大理想平面及び歪曲平面の座標値は実数値である。このため、歪曲平面の座標値[Xcd, Ycd]から広角画像10の座標値[Ud, Vd]を参照すると、実数から整数への丸め誤差が生ずる。これによっても、拡大補正画像102での重複が生ずる。   The coordinate values of the wide-angle image 10 are integer values, while the coordinate values of the enlarged ideal plane and the distortion plane obtained by projecting the enlarged corrected image 102 on the image plane are real values. For this reason, when the coordinate values [Ud, Vd] of the wide-angle image 10 are referred to from the coordinate values [Xcd, Ycd] of the distorted plane, a rounding error from a real number to an integer occurs. This also causes duplication in the enlarged corrected image 102.

実施例1では、広角画像10の整数の座標値から出発して計測マップを生成する手法では、整数への丸めが生ぜず、精度の高い計測マップを作成することができる。   In the first embodiment, the method of generating a measurement map starting from integer coordinate values of the wide-angle image 10 does not cause rounding to an integer, and a highly accurate measurement map can be created.

図30は、仮定地上高Yconst=345[mm]とした簡易マップの一例を示す図で、図30(A)は重複部分を示し、図30(B)は簡易Xmapの誤差を示し、図30(C)は簡易Zmapの誤差を示す。図31は、仮定地上高Yconst=0とした簡易マップの一例を示す図で、図31(A)は重複部分を示し、図31(B)は簡易Xmapの誤差を示し、図31(C)は簡易Zmapの誤差を示す。図30及び図31では、背景の白色は計測範囲外であり、重複数が多いほど濃い黒色に表現している。
図32(A)から(E)は図30(A)に示す重複部分を重複数に応じて個別に表示した一例を示す。背景のグレーは計測対象外である。図32に示す例では、各図によって白色部分の重複回数が異なる。
FIG. 30 is a diagram showing an example of a simple map in which the assumed ground height Yconst = 345 [mm]. FIG. 30 (A) shows an overlapping portion, FIG. 30 (B) shows a simple Xmap error, and FIG. (C) shows a simple Zmap error. FIG. 31 is a diagram showing an example of a simple map in which the assumed ground height Yconst = 0, FIG. 31A shows an overlapping portion, FIG. 31B shows an error of the simple Xmap, and FIG. Indicates the error of the simple Zmap. In FIGS. 30 and 31, the white background is out of the measurement range, and the more overlapping the number, the darker the black.
FIGS. 32A to 32E show an example in which the overlapping portions shown in FIG. 30A are individually displayed according to the overlapping number. The gray background is not subject to measurement. In the example shown in FIG. 32, the number of overlaps of the white portion differs depending on each figure.

図30(A)の重複部分を説明する。図32(A)に示す白色部分は、重複回数が0で精度の高い部分である。図32(B)に示す白色部分は、重複回数が1回で、図32(C)に示す白色部分は、重複回数が2回で、図33(D)に示す白色部分は重複回数が3回で、図32(E)に示す白色部分は重複回数が4回以上である。このように、広角レンズによる歪みが大きくなる外側につれて、重複の回数が増加する。   An overlapping portion in FIG. 30A will be described. The white portion shown in FIG. 32A is a highly accurate portion with zero overlap. The white portion shown in FIG. 32 (B) has one overlap, the white portion shown in FIG. 32 (C) has two overlaps, and the white portion shown in FIG. 33 (D) has three overlaps. The white portion shown in FIG. 32E has four or more overlapping times. Thus, the number of times of overlap increases as the distortion increases due to the wide-angle lens.

図30(A)と比較すると、図30(B)及び(C)に示す簡易な計測マップでは、濃度が薄くなる外側に向けて世界座標系の測定精度が低下してしまう。図31に示す路面上(Yconst=0)とする計測マップについても同様である。
しかしながら、本手法によると重複参照点の少ない比較的近距離を対象とした計測マップを、歪み補正装置作成手段等の従来の計算法により実施例1の手段に比べ容易に作成することが可能である。例えば、駐車支援用のカメラは自車の下方足元が画面中央に位置する方向で車両に固定されている。このような構成下のシステムに対し、走行中の自車両について足元の左右白線を2値化等の画像処理により求め、画像平面上の検出点座標をYconst=0の位置における簡易計測マップから実空間座標に変換することで、自車が走行車線中央付近を走行しているか確認することが可能となり、走行車線の逸脱警報装置開発などに応用することができる。この場合、検出エリアを簡易計測マップ重複点の少ない範囲に限定することで、検出対象外となる他白線、背景や後続車両等の障害物を同時に画像から除外することができる。よって、足元の左右両白線の検出作業に関わるこれら他障害物の影響を回避することが可能となり、検出効果も同時に向上することができる。
したがって、実空間上で広範囲の対象を検出する場合には実施例1、比較的近距離の対象を検出する場合には実施例3に従った計測マップ作成方法を採用することで、効率的な装置開発を行うことができる。
Compared with FIG. 30A, in the simple measurement maps shown in FIGS. 30B and 30C, the measurement accuracy of the world coordinate system decreases toward the outside where the density decreases. The same applies to the measurement map on the road surface (Yconst = 0) shown in FIG.
However, according to this method, it is possible to easily create a measurement map for a relatively short distance with few overlapping reference points by the conventional calculation method such as the distortion correction device creation means as compared with the means of the first embodiment. is there. For example, a parking assistance camera is fixed to the vehicle in such a direction that the lower foot of the host vehicle is located at the center of the screen. For the system under such a configuration, the left and right white lines of the foot of the traveling vehicle are obtained by image processing such as binarization, and the detection point coordinates on the image plane are obtained from the simple measurement map at the position of Yconst = 0. By converting to spatial coordinates, it is possible to confirm whether or not the vehicle is traveling near the center of the travel lane, and can be applied to the development of a departure lane warning device. In this case, by limiting the detection area to a range where there are few overlapping points of the simple measurement map, obstacles such as other white lines, backgrounds, and subsequent vehicles that are not detected can be simultaneously excluded from the image. Therefore, it is possible to avoid the influence of these other obstacles related to the detection work of the left and right white lines at the foot, and the detection effect can be improved at the same time.
Therefore, it is efficient by adopting the measurement map creation method according to Example 1 when detecting a wide range of objects in real space, and when detecting a relatively short distance object according to Example 3. Device development can be performed.

10 広角画像
12 カメラ
14 記憶部
16 生成処理部
28 広角レンズ
30 歪曲平面化処理
32 理想平面化処理
34 世界座標化処理
36 マップ生成処理
38 計測マップ
38A X計測マップ
38B Z計測マップ
40 仮定地上高処理
42 切替処理
44 測定枠
46 測定枠処理
48 地上高上限
50 全体計測マップ
52 測定枠計測マップ
60 確認処理部
62 追跡処理
64 位置参照処理
66 有効フロー抽出処理
68 速度範囲
70 テンプレート
72 グループ化処理
74 判定処理
DESCRIPTION OF SYMBOLS 10 Wide-angle image 12 Camera 14 Memory | storage part 16 Generation | occurrence | production process part 28 Wide-angle lens 30 Distortion planarization process 32 Ideal planarization process 34 World coordinate process 36 Map generation process 38 Measurement map 38A X measurement map 38B Z measurement map 40 Assumption ground height process 42 Switching process 44 Measurement frame 46 Measurement frame process 48 Ground height upper limit 50 Overall measurement map 52 Measurement frame measurement map 60 Confirmation processing unit 62 Tracking process 64 Position reference process 66 Effective flow extraction process 68 Speed range 70 Template 72 Grouping process 74 Determination processing

Claims (10)

広角レンズを有するカメラの外部パラメーター及び内部パラメーターを記憶した記憶部と、前記カメラから入力される広角画像の画像処理に使用するための所定の計測マップを生成する生成処理部とを備え、
前記記憶部が、複数の座標系を定義する座標系定義と、各座標系の関係を表す複数の座標関係式と、各座標関係式の係数となる関係式パラメーターとを記憶し、
前記座標系定義による座標系が、前記広角画像の画素を単位とする二次元の画像座標系と、前記カメラの三次元のカメラ座標系を歪曲のない理想的な二次元の理想平面に投影した理想平面座標系と、前記広角レンズによる前記広角画像の歪曲を前記理想平面に投影して歪曲平面とした歪曲平面座標系と、前記カメラの撮像対象となる世界の三次元の世界座標系とであり、
前記生成処理部が、
前記座標系のそれぞれの座標値について、前記座標関係式とそれぞれのパラメーターとを使用して、前記広角画像の画像座標値を歪曲平面座標値に変換する歪曲平面化処理と、前記歪曲平面座標値を理想平面座標値に変換する理想平面化処理と、前記理想平面座標値を世界座標値に変換する世界座標化処理とを備えると共に、
各画像座標値の前記世界座標値を前記計測マップとして前記記憶部に格納するマップ生成処理を備えた、
ことを特徴とする計測マップ生成装置。
A storage unit that stores external parameters and internal parameters of a camera having a wide-angle lens, and a generation processing unit that generates a predetermined measurement map for use in image processing of a wide-angle image input from the camera,
The storage unit stores a coordinate system definition that defines a plurality of coordinate systems, a plurality of coordinate relational expressions that represent the relationship of each coordinate system, and a relational expression parameter that is a coefficient of each coordinate relational expression,
The coordinate system defined by the coordinate system defines a two-dimensional image coordinate system in units of pixels of the wide-angle image and a three-dimensional camera coordinate system of the camera projected on an ideal two-dimensional ideal plane without distortion. An ideal plane coordinate system, a distorted plane coordinate system in which distortion of the wide-angle image by the wide-angle lens is projected onto the ideal plane to form a distorted plane, and a world three-dimensional world coordinate system to be imaged by the camera Yes,
The generation processing unit
For each coordinate value of the coordinate system, using the coordinate relational expression and the respective parameters, a distortion planarization process for converting the image coordinate value of the wide-angle image into a distortion plane coordinate value, and the distortion plane coordinate value An ideal planarization process for converting the ideal plane coordinate value into a world coordinate value, and an ideal plane conversion process for converting the ideal plane coordinate value into a world coordinate value,
A map generation process for storing the world coordinate value of each image coordinate value as the measurement map in the storage unit;
A measurement map generation device characterized by that.
前記世界座標化処理が、前記世界座標系での物体の特徴部分の仮定地上高を予め設定して、前記理想平面座標値を前記世界座標値に変換する仮定地上高処理を備えた、
ことを特徴とする請求項1記載の計測マップ生成装置。
The world coordinate processing includes presumed ground height processing for presetting an assumed ground height of a characteristic part of an object in the world coordinate system and converting the ideal plane coordinate value to the world coordinate value.
The measurement map generating apparatus according to claim 1, wherein:
前記記憶部が、前記歪曲平面座標系と前記理想平面座標系との前記座標関係式として、放射歪曲を補正する放射歪曲補正式と、対数歪曲を補正する対数歪曲補正式とを有し、
前記理想平面化処理が、前記理想平面座標系又は前記歪曲平面座標系での予め定められた校正円の内部には前記放射歪曲補正式を使用し、当該校正円の外部には前記対数歪曲補正式を使用して、前記歪曲平面座標値を前記理想平面座標値に変換する切替処理を備えた、
ことを特徴とする請求項1又は2記載の計測マップ生成装置。
The storage unit has, as the coordinate relational expression between the distortion plane coordinate system and the ideal plane coordinate system, a radial distortion correction expression for correcting radial distortion, and a logarithmic distortion correction expression for correcting logarithmic distortion,
The ideal planarization processing uses the radial distortion correction formula inside a predetermined calibration circle in the ideal plane coordinate system or the distorted plane coordinate system, and the logarithmic distortion correction outside the calibration circle. A switching process for converting the distorted plane coordinate value into the ideal plane coordinate value using an equation;
The measurement map generating apparatus according to claim 1 or 2, wherein
前記記憶部が、画像処理の対象とする測定の範囲を前記世界座標値の最大値及び最小値で区分する測定枠を予め記憶し、
前記生成処理部が、前記計測マップのうち、前記世界座標値が当該測定枠に含まれる画像座標値の値を抽出する測定枠処理を備えた、
ことを特徴とする請求項1,2又は3記載の計測マップ生成装置。
The storage unit stores in advance a measurement frame that divides a measurement range to be subjected to image processing by the maximum value and the minimum value of the world coordinate values,
The generation processing unit includes a measurement frame process for extracting a value of an image coordinate value in which the world coordinate value is included in the measurement frame in the measurement map.
The measurement map generation device according to claim 1, 2, or 3.
広角レンズを有するカメラの外部パラメーター及び内部パラメーターを記憶した記憶部と、前記カメラから入力される広角画像の画像処理に使用するための所定の計測マップを生成する生成処理部とを備え、
前記記憶部が、複数の座標系を定義する座標系定義と、各座標系の関係を表す複数の座標関係式と、各座標関係式の係数となる関係式パラメーターとを記憶し、
前記座標系として、前記広角画像の画素を単位とする二次元の画像座標系と、前記カメラの三次元のカメラ座標系を歪曲のない理想的な二次元の理想平面に投影した理想平面座標系と、前記広角レンズによる前記広角画像の歪曲を前記理想平面に投影して歪曲平面とした歪曲平面座標系と、前記カメラの撮像対象となる世界の三次元の世界座標系とであり、
前記歪曲平面座標系と前記理想平面座標系との前記座標関係式として、放射歪曲を補正する放射歪曲補正式、対数歪曲を補正する対数歪曲補正式とを有する計測マップ生成装置を使用して計測マップを生成する方法であって、
前記座標系のそれぞれの座標値について、前記座標関係式とそれぞれのパラメーターとを使用して、前記広角画像の画像座標値を歪曲平面座標値に変換する歪曲平面化工程と、
前記歪曲平面座標系での予め定められた校正円の内部については前記放射歪曲補正式を使用し、当該校正円の外部については前記対数歪曲補正式を使用して、前記歪曲平面座標値を前記理想平面座標値に変換する理想平面化工程と、
前記理想平面座標値を前記世界座標値に変換する世界座標化工程と、
前記各画像座標値の前記世界座標値を生成するまで各工程を繰り返すことで前記計測マップを生成するマップ生成工程とを備えた、
ことを特徴とする計測マップ生成方法。
A storage unit that stores external parameters and internal parameters of a camera having a wide-angle lens, and a generation processing unit that generates a predetermined measurement map for use in image processing of a wide-angle image input from the camera,
The storage unit stores a coordinate system definition that defines a plurality of coordinate systems, a plurality of coordinate relational expressions that represent the relationship of each coordinate system, and a relational expression parameter that is a coefficient of each coordinate relational expression,
As the coordinate system, a two-dimensional image coordinate system in units of pixels of the wide-angle image, and an ideal plane coordinate system obtained by projecting the three-dimensional camera coordinate system of the camera onto an ideal two-dimensional ideal plane without distortion And a distortion plane coordinate system in which distortion of the wide-angle image by the wide-angle lens is projected onto the ideal plane to form a distortion plane, and a three-dimensional world coordinate system of the world to be imaged by the camera,
Measurement is performed using a measurement map generation device having a radial distortion correction expression for correcting radial distortion and a logarithmic distortion correction expression for correcting logarithmic distortion as the coordinate relational expression between the distortion plane coordinate system and the ideal plane coordinate system. A method of generating a map,
For each coordinate value of the coordinate system, using the coordinate relational expression and the respective parameters, a distortion planarization step of converting the image coordinate value of the wide-angle image into a distortion plane coordinate value;
The radial distortion correction formula is used for the inside of a predetermined calibration circle in the distortion plane coordinate system, and the distortion plane coordinate value is calculated using the logarithmic distortion correction formula for the outside of the calibration circle. An ideal planarization process for converting to an ideal plane coordinate value;
A world coordinate conversion step of converting the ideal plane coordinate value into the world coordinate value;
A map generation step of generating the measurement map by repeating each step until the world coordinate value of each image coordinate value is generated,
A measurement map generation method characterized by that.
広角レンズを有し自車の走行環境を撮影するカメラと、
所定の計測マップを記憶した記憶部と、
前記カメラから入力される広角画像と前記計測マップとに基づいて前記自車の前記走行環境を確認する確認処理部とを備え、
前記計測マップが、前記走行環境の世界座標系での測定枠の範囲内について、画像座標系の画像座標値と前記世界座標系の世界座標値との対応を予め記憶したマップであって、
前記確認処理部が、
連続する前記広角画像を使用して、前記測定枠の範囲内の当該広角画像での特徴点を追跡する追跡処理と、
前記追跡した特徴点であるフローの画像座標値から前記計測マップを参照し、当該フローの世界座標系での位置を特定する位置参照処理とを備えた、
ことを特徴とする走行環境確認装置。
A camera that has a wide-angle lens and shoots the driving environment of the vehicle;
A storage unit that stores a predetermined measurement map;
A confirmation processing unit that confirms the traveling environment of the host vehicle based on the wide-angle image input from the camera and the measurement map;
The measurement map is a map that stores in advance the correspondence between the image coordinate value of the image coordinate system and the world coordinate value of the world coordinate system for a range of the measurement frame in the world coordinate system of the driving environment,
The confirmation processing unit
A tracking process for tracking feature points in the wide-angle image within the measurement frame using the continuous wide-angle image;
A position reference process that refers to the measurement map from the image coordinate value of the flow that is the tracked feature point and identifies the position of the flow in the world coordinate system,
A traveling environment confirmation device characterized by that.
前記計測マップが、前記世界座標系での物体の特徴部分の地上高を予め仮定して、前記画像座標系の画像座標値を前記世界座標系の世界座標値に投影したマップであって、
前記記憶部が、前記走行環境の前記仮定地上高について前記世界座標系で予め定められた速度範囲を記憶し、
前記確認処理部が、前記位置を特定した前記フローのうち前記速度範囲内のフローを前記仮定地上高の高さの前記特徴部分が移動する物体として抽出する有効フロー抽出処理を備えた、
ことを特徴とする請求項6記載の走行環境確認装置。
The measurement map is a map obtained by projecting the image coordinate value of the image coordinate system onto the world coordinate value of the world coordinate system, assuming the ground height of the characteristic part of the object in the world coordinate system in advance,
The storage unit stores a speed range predetermined in the world coordinate system for the assumed ground height of the driving environment;
The confirmation processing unit includes an effective flow extraction process for extracting a flow within the speed range among the flows that have identified the position as an object in which the characteristic portion having a height of the assumed ground height moves.
The traveling environment confirmation device according to claim 6.
前記記憶部が、複数の仮定地上高毎の計測マップを記憶し、
前記確認処理部が、複数の仮定地上高毎にフローを抽出する、
ことを特徴とする請求項7記載の走行環境確認装置。
The storage unit stores a measurement map for each of a plurality of assumed ground heights,
The confirmation processing unit extracts a flow for each of a plurality of assumed ground heights.
The traveling environment confirmation device according to claim 7.
広角レンズを有するカメラと、前記カメラの外部パラメーター及び内部パラメーターを記憶した記憶部と、前記カメラから入力される広角画像の歪曲を補正する補正処理部と、前記補正処理部で補正された補正画像を表示する表示部とを備え、
前記記憶部が、複数の座標系を定義する座標系定義と、各座標系の関係を表す複数の座標関係式と、各座標関係式の係数となる関係式パラメーターとを記憶し、
前記座標系定義による座標系が、前記カメラで撮像した広角画像の画素を単位とする二次元の画像座標系と、前記広角の程度に応じてサイズを拡大した拡大補正画像を扱う拡大補正画像座標系と、前記拡大補正画像座標系と同一サイズで前記画像座標系を歪曲のない理想的な二次元の拡大理想平面に投影した拡大理想平面座標系と、前記広角レンズによる前記広角画像の歪曲を前記拡大理想平面に投影して歪曲平面とした歪曲平面座標系と、前記広角画像よりも前記サイズを拡大した前記表示部の表示座標系とであり、
前記補正処理部が、
前記座標系のそれぞれの座標値について、前記座標関係式とそれぞれのパラメーターとを使用して、前記拡大補正画像の座標値を前記拡大理想平面の座標値に変換する拡大理想平面化処理と、前記拡大理想平面の座標値を前記歪曲平面の座標値に変換する歪曲平面化処理と、前記歪曲平面の座標値を前記拡大補正画像の座標値に変換する拡大補正画像化処理とを備えると共に、
前記拡大補正画像の画素毎に、対応する前記歪曲平面の座標値に応じた前記広角画像の座標値の値を参照することで、前記拡大補正画像座標系での前記拡大補正画像の生成を制御する歪画像補正制御処理を備えた、
ことを特徴とする歪画像補正装置。
A camera having a wide-angle lens, a storage unit storing external parameters and internal parameters of the camera, a correction processing unit that corrects distortion of a wide-angle image input from the camera, and a corrected image corrected by the correction processing unit And a display unit for displaying
The storage unit stores a coordinate system definition that defines a plurality of coordinate systems, a plurality of coordinate relational expressions that represent the relationship of each coordinate system, and a relational expression parameter that is a coefficient of each coordinate relational expression,
The coordinate system defined by the coordinate system definition is a two-dimensional image coordinate system in units of pixels of a wide-angle image captured by the camera, and an enlarged corrected image coordinate that handles an enlarged corrected image whose size is enlarged according to the degree of the wide angle. System, an enlarged ideal plane coordinate system in which the image coordinate system is projected onto an ideal two-dimensional enlarged ideal plane having no distortion and the same size as the enlarged corrected image coordinate system, and distortion of the wide-angle image by the wide-angle lens. A distortion plane coordinate system that is projected onto the enlarged ideal plane to be a distortion plane, and a display coordinate system of the display unit that is enlarged in size than the wide-angle image,
The correction processing unit
For each coordinate value of the coordinate system, using the coordinate relational expression and each parameter, an enlarged ideal planarization process that converts the coordinate value of the enlarged corrected image into a coordinate value of the enlarged ideal plane; A distortion flattening process for converting the coordinate value of the enlarged ideal plane into the coordinate value of the distortion plane; and an enlarged correction imaging process for converting the coordinate value of the distortion plane into the coordinate value of the enlarged correction image;
The generation of the enlarged corrected image in the enlarged corrected image coordinate system is controlled by referring to the value of the coordinate value of the wide-angle image corresponding to the coordinate value of the corresponding distortion plane for each pixel of the enlarged corrected image. With distortion image correction control processing
A distorted image correction apparatus characterized by the above.
前記記憶部が、前記歪曲平面座標系と前記拡大理想平面座標系との前記座標関係式として、放射歪曲を補正する放射歪曲補正式と、対数歪曲を補正する対数歪曲補正式とを有し、
前記歪曲平面化処理が、前記拡大理想平面座標系又は前記歪曲平面座標系での予め定められた校正円の内部には前記放射歪曲補正式を使用し、当該校正円の外部には前記対数歪曲補正式を使用して、前記歪曲平面座標値を前記理想平面座標値に変換する拡大切替処理を備えた、
ことを特徴とする請求項9記載の歪画像補正装置。
The storage unit has a radial distortion correction formula for correcting radial distortion and a logarithmic distortion correction formula for correcting logarithmic distortion, as the coordinate relational expression of the distortion plane coordinate system and the enlarged ideal plane coordinate system,
The distortion planarization process uses the radial distortion correction formula inside a predetermined calibration circle in the enlarged ideal plane coordinate system or the distortion plane coordinate system, and the logarithmic distortion outside the calibration circle. Using a correction formula, comprising an enlargement switching process for converting the distorted plane coordinate value to the ideal plane coordinate value,
The distorted image correction apparatus according to claim 9.
JP2009064428A 2009-03-17 2009-03-17 Measurement map generation device and traveling environment confirmation device Pending JP2010218226A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009064428A JP2010218226A (en) 2009-03-17 2009-03-17 Measurement map generation device and traveling environment confirmation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009064428A JP2010218226A (en) 2009-03-17 2009-03-17 Measurement map generation device and traveling environment confirmation device

Publications (1)

Publication Number Publication Date
JP2010218226A true JP2010218226A (en) 2010-09-30

Family

ID=42977010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009064428A Pending JP2010218226A (en) 2009-03-17 2009-03-17 Measurement map generation device and traveling environment confirmation device

Country Status (1)

Country Link
JP (1) JP2010218226A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234459A (en) * 2011-05-09 2012-11-29 Suzuki Motor Corp Vehicle periphery monitoring device
JP2013003955A (en) * 2011-06-20 2013-01-07 Suzuki Motor Corp Optical flow detection device
JP2013149175A (en) * 2012-01-22 2013-08-01 Suzuki Motor Corp Optical flow processor and display radius map generation device
JP2017016266A (en) * 2015-06-29 2017-01-19 富士通株式会社 Template matching program, template matching method and template matching device
JP2017215887A (en) * 2016-06-02 2017-12-07 マツダ株式会社 Vehicle control device
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
JP2020042804A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for position detection, device, storage medium, and vehicle
CN111656391A (en) * 2018-07-17 2020-09-11 华为技术有限公司 Image correction method and terminal
CN111858808A (en) * 2020-07-17 2020-10-30 重庆市勘测院 Automatic evaluation method for topographic map characteristic ground object precision based on massive real measuring points
JP2020184164A (en) * 2019-05-07 2020-11-12 株式会社デンソー Information processing device
CN113781554A (en) * 2020-06-10 2021-12-10 富士通株式会社 Target position determining device, and traffic dynamic map establishing device and method
EP3736768B1 (en) * 2019-05-07 2022-04-13 Alpine Electronics, Inc. Image processing apparatus, image processing system, image processing method, and program
KR102481756B1 (en) * 2021-12-09 2022-12-27 주식회사 커브서프 Apparatus and method for transforming contour point
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234459A (en) * 2011-05-09 2012-11-29 Suzuki Motor Corp Vehicle periphery monitoring device
JP2013003955A (en) * 2011-06-20 2013-01-07 Suzuki Motor Corp Optical flow detection device
JP2013149175A (en) * 2012-01-22 2013-08-01 Suzuki Motor Corp Optical flow processor and display radius map generation device
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
JP2017016266A (en) * 2015-06-29 2017-01-19 富士通株式会社 Template matching program, template matching method and template matching device
JP2017215887A (en) * 2016-06-02 2017-12-07 マツダ株式会社 Vehicle control device
CN111656391B (en) * 2018-07-17 2023-09-22 华为技术有限公司 Image correction method and terminal
CN111656391A (en) * 2018-07-17 2020-09-11 华为技术有限公司 Image correction method and terminal
JP2020042804A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for position detection, device, storage medium, and vehicle
US11210534B2 (en) 2018-09-07 2021-12-28 Baidu Online Network Technology (Beijing) Co., Ltd. Method for position detection, device, and storage medium
JP2020184164A (en) * 2019-05-07 2020-11-12 株式会社デンソー Information processing device
US12125376B2 (en) 2019-05-07 2024-10-22 Denso Corporation Information processing device
EP3736768B1 (en) * 2019-05-07 2022-04-13 Alpine Electronics, Inc. Image processing apparatus, image processing system, image processing method, and program
JP7140043B2 (en) 2019-05-07 2022-09-21 株式会社デンソー Information processing equipment
CN113781554A (en) * 2020-06-10 2021-12-10 富士通株式会社 Target position determining device, and traffic dynamic map establishing device and method
CN111858808B (en) * 2020-07-17 2023-10-31 重庆市勘测院 Automatic evaluation method for feature and ground object precision of topographic map based on massive actual measurement points
CN111858808A (en) * 2020-07-17 2020-10-30 重庆市勘测院 Automatic evaluation method for topographic map characteristic ground object precision based on massive real measuring points
WO2023106472A1 (en) * 2021-12-09 2023-06-15 주식회사 커브서프 Contour point transformation apparatus and method therefor
KR102481756B1 (en) * 2021-12-09 2022-12-27 주식회사 커브서프 Apparatus and method for transforming contour point
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Similar Documents

Publication Publication Date Title
JP2010218226A (en) Measurement map generation device and traveling environment confirmation device
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US9311711B2 (en) Image processing apparatus and image processing method
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
JP2020042831A (en) Road vertical contour detection
EP3594902B1 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
CN105828028B (en) A kind of method and device carrying out safety detection to vehicle bottom
US20200286244A1 (en) Image processing method and apparatus
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
JP2011070593A (en) Vehicle periphery monitoring device
JP4967758B2 (en) Object movement detection method and detection apparatus
CN107220632B (en) Road surface image segmentation method based on normal characteristic
CN111860270B (en) Obstacle detection method and device based on fisheye camera
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP7229032B2 (en) External object detection device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP4106163B2 (en) Obstacle detection apparatus and method
JP3742759B2 (en) Image processing apparatus and method
JP2007233469A (en) Object-detecting device and method therefor
Kim et al. Real-time moving object detection using a vehicle-mounted monocular rear-view fisheye camera
KR20100060528A (en) Display system for driving vehicle
JP2004251886A (en) Device for detecting surrounding object