JP2009139324A - Travel road surface detecting apparatus for vehicle - Google Patents

Travel road surface detecting apparatus for vehicle Download PDF

Info

Publication number
JP2009139324A
JP2009139324A JP2007318567A JP2007318567A JP2009139324A JP 2009139324 A JP2009139324 A JP 2009139324A JP 2007318567 A JP2007318567 A JP 2007318567A JP 2007318567 A JP2007318567 A JP 2007318567A JP 2009139324 A JP2009139324 A JP 2009139324A
Authority
JP
Japan
Prior art keywords
road surface
vehicle
specific area
plane
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007318567A
Other languages
Japanese (ja)
Inventor
Koji Iwase
耕二 岩瀬
Satoru Matsuoka
悟 松岡
Haruhisa Kore
治久 是
Takanori Kume
孝則 久米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2007318567A priority Critical patent/JP2009139324A/en
Publication of JP2009139324A publication Critical patent/JP2009139324A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a travel road surface detecting apparatus for vehicles capable of accurately detecting road surfaces by simple processing. <P>SOLUTION: The travel road surface detection apparatus for vehicles for detecting a road slope in a prescribed wide road surface region on the basis of road surface images acquired by imaging travel road surfaces includes a first imaging means; a second imaging means; a specific region setting means for setting a specific region separated from a vehicle on an imaged road surface by a prescribed distance as a specific region; a specific plane constant computing means for detecting corresponding points retrieved from road surface images imaged by the first imaging means and the second imaging means in the specific region and computing plane constants which specify a specific plane by projection transformation; and a travel road surface setting means for combining the specific region with at least one specific region set in the past before the specific region after a lapse of a prescribed time depending on the amount of movement of the vehicle during the prescribed time and setting it as a travel road surface. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両用走行路面検出装置に係り、特に、走行路面を撮像した路面画像から所定の広い路面領域における路面傾斜を検出する車両用走行路面検出装置に関する。   The present invention relates to a vehicular traveling road surface detection device, and more particularly to a vehicular traveling road surface detection device that detects a road surface inclination in a predetermined wide road surface region from a road surface image obtained by imaging the traveling road surface.

従来、特許文献1に示すように、ステレオカメラにより得られる基準の画像を他方のカメラ視点に画像変換し、その変換画像を他方のカメラ画像とにより走行路面の平面パラメータを算出する平面検出装置が知られている。
また、特許文献2に示すように、前方の道路の勾配角を検出することが出来る前方道路の勾配検出方法が知られている。
Conventionally, as shown in Patent Document 1, a plane detection device that converts a reference image obtained by a stereo camera to the other camera viewpoint and calculates a plane parameter of a traveling road surface from the converted image with the other camera image is provided. Are known.
Further, as shown in Patent Document 2, a method for detecting the gradient of a road ahead is known that can detect the slope angle of the road ahead.

特開2006−053754号公報JP 2006-053754 A 特開平09−325026号公報JP 09-325026 A

しかしながら、上述したような装置或いは方法では、演算処理の負担が非常に大きく、特に、複数の傾斜変化がある路面については処理しきれない場合があった。また、単純な、例えば2つの平面同士の勾配変化を求めることが出来るものの、様々な傾斜変化がある場合に正確に路面までの距離や傾斜を検出することが出来ないものである。   However, in the apparatus or method as described above, the burden of the arithmetic processing is very large, and in particular, there are cases where the road surface having a plurality of inclination changes cannot be processed. In addition, a simple change in the gradient between two planes, for example, can be obtained, but when there are various changes in the inclination, the distance to the road surface and the inclination cannot be detected accurately.

そこで、本発明は、上述した従来技術の問題点を解決するためになされたものであり、簡易な処理により路面を正確に検出することが出来る車両用走行路面検出装置を提供することを目的としている。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and an object thereof is to provide a vehicle road surface detection device that can accurately detect a road surface by simple processing. Yes.

上記の目的を達成するために本発明による車両用走行路面検出装置は、走行路面を撮像した路面画像から所定の広い路面領域における路面傾斜を検出する車両用走行路面検出装置であって、走行路面を撮像する第1撮像手段と、この第1撮像手段により撮像された路面画像と少なくとも1部が重複する路面画像が得られるように走行路面を撮像する第2撮像手段と、撮像された路面の車両から所定距離離れた特定の領域を特定領域として設定する特定領域設定手段と、この特定領域において、第1撮像手段及び第2撮像手段で撮像されたそれぞれの路面画像にて探索された互いの対応点を検出すると共に射影変換により特定平面を規定する平面定数を算出する特定平面定数算出手段と、特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域と、を所定時間における車両の移動量に応じて結合して走行路面として設定する走行路面設定手段と、を有することを特徴としている。   In order to achieve the above object, a vehicle road surface detection device according to the present invention is a vehicle road surface detection device for detecting a road surface inclination in a predetermined wide road surface region from a road surface image obtained by imaging the road surface. First imaging means for imaging the vehicle, second imaging means for imaging the traveling road surface so as to obtain a road surface image that overlaps at least a part of the road surface image captured by the first imaging means, and the captured road surface Specific area setting means for setting a specific area that is a predetermined distance away from the vehicle as a specific area, and each of the specific areas searched for in each road image imaged by the first imaging means and the second imaging means A specific plane constant calculating means for detecting a corresponding point and calculating a plane constant for defining a specific plane by projective transformation; a specific area; and a predetermined area before the specific area It is characterized by having a traveling road surface setting means for setting at least one specific region is set in the past, as road surface bonded to in accordance with the amount of movement of the vehicle at a given time, the.

このように構成された本発明においては、撮像された路面の車両から所定距離離れた特定の領域を特定領域として設定し、この特定領域において平面定数を算出し、特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域とを所定時間における車両の移動量に応じて結合して走行路面として設定する。従って、例えば、数十m先のような特定領域の画像処理のみで、特定領域から車両直前までの路面の勾配を検出することが出来、処理負担を軽減することが出来る。また、特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域とを所定時間における車両の移動量に応じて結合して走行路面として設定するので、路面勾配の検出も正確なものとなる。   In the present invention configured as described above, a specific area that is a predetermined distance away from the vehicle on the imaged road surface is set as the specific area, a plane constant is calculated in the specific area, and the specific area and after a predetermined time are calculated. At least one specific area set in the past before this specific area is combined according to the amount of movement of the vehicle in a predetermined time, and set as a traveling road surface. Therefore, for example, the road gradient from the specific area to immediately before the vehicle can be detected only by image processing of the specific area such as several tens of meters ahead, and the processing load can be reduced. In addition, since the specific area and at least one specific area set in the past before this specific area after a predetermined time are combined according to the amount of movement of the vehicle in the predetermined time and set as the road surface, the road surface gradient Detection is also accurate.

また、本発明において、好ましくは、車両の移動量は、撮像された画像中の所定の静止物の位置関係を基準に決定される。
このように構成された本発明においては、車両の移動量を、静止物を利用した高精度な位置補正により決定することが出来るので、より精度良く路面勾配を検出することが出来る。
In the present invention, preferably, the moving amount of the vehicle is determined based on the positional relationship of a predetermined stationary object in the captured image.
In the present invention configured as described above, the amount of movement of the vehicle can be determined by highly accurate position correction using a stationary object, so that the road surface gradient can be detected with higher accuracy.

また、本発明において、好ましくは、車両の移動量は、撮像された画像中の所定の静止物をオプティカルフロー処理することにより決定される。
このように構成された本発明においては、車両の移動量を、オプティカルフロー処理により決定することが出来るので、より精度良く路面勾配を検出することが出来る。
In the present invention, preferably, the moving amount of the vehicle is determined by performing an optical flow process on a predetermined stationary object in the captured image.
In the present invention configured as described above, the movement amount of the vehicle can be determined by the optical flow process, so that the road surface gradient can be detected with higher accuracy.

また、本発明において、好ましくは、特定領域設定手段は、所定距離を車両の速度に応じて変更する。
このように構成された本発明においては、車両の速度に応じて、車両制御及び画像処理に適した特定領域を設定することが出来る。
In the present invention, it is preferable that the specific area setting unit changes the predetermined distance according to the speed of the vehicle.
In the present invention configured as described above, a specific region suitable for vehicle control and image processing can be set according to the speed of the vehicle.

また、本発明において、好ましくは、平面定数は、車両からの距離d及び傾きnにより規定される。
このように構成された本発明においては、特定領域の距離及び傾きを簡易に精度良く検出することが出来る。
In the present invention, the plane constant is preferably defined by the distance d from the vehicle and the slope n.
In the present invention configured as described above, the distance and inclination of the specific area can be detected easily and accurately.

また、本発明において、好ましくは、走行路面設定手段は、走行路面設定手段は、距離dが所定値以下及び/又は傾きnが所定値以上のとき車両の移動量に応じた特定領域と過去の特定領域との結合を中止する。
このように構成された本発明においては、車両の前方に車両が割り込むなどして距離dが所定値以下及び/又は傾きnが所定値以上となったとき、車両の移動量に応じた特定領域と過去の特定領域との結合を中止するので、不要な処理を中止して処理負担を軽減することが出来る。
In the present invention, it is preferable that the traveling road surface setting means includes a specific area corresponding to the amount of movement of the vehicle and the past when the distance d is equal to or smaller than a predetermined value and / or the inclination n is equal to or larger than the predetermined value. Cancels the connection with a specific area.
In the present invention configured as described above, when the distance d is equal to or smaller than the predetermined value and / or the slope n is equal to or larger than the predetermined value, for example, when the vehicle cuts in front of the vehicle, the specific region corresponding to the moving amount of the vehicle And the past specific area are stopped, unnecessary processing can be stopped and the processing load can be reduced.

本発明による車両用走行路面検出装置によれば、簡易な処理により路面を正確に検出することが出来る。   According to the vehicular traveling road surface detection device of the present invention, the road surface can be accurately detected by simple processing.

以下、本発明の実施形態を添付図面を参照して説明する。
先ず、本発明の実施形態による車両用走行路面検出装置が適用される車両、道路領域検出処理の基本的なフロー、処理画像の例及び道路領域検出処理内容について説明する。図1は、本発明の実施形態による車両用走行路面検出装置が適用される車両の概念図であり、図2は、本発明の実施形態による車両用走行路面検出装置に用いられる道路領域検出処理の処理フローを示すフローチャートであり、図3は、本発明の実施形態による車両用走行路面検出装置に用いられる道路領域検出処理の処理画像の例を示す概念図であり、図4は、射影変換に用いる左右のカメラのそれぞれの対応点の例を示す図である。以下、Sは各ステップを示す。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
First, a vehicle to which a vehicle road surface detection device according to an embodiment of the present invention is applied, a basic flow of road area detection processing, an example of a processed image, and road area detection processing contents will be described. FIG. 1 is a conceptual diagram of a vehicle to which a vehicle road surface detection device according to an embodiment of the present invention is applied. FIG. 2 is a road area detection process used in the vehicle road surface detection device according to an embodiment of the present invention. FIG. 3 is a conceptual diagram showing an example of a processing image of road area detection processing used in the vehicle road surface detection device according to the embodiment of the present invention. FIG. 4 is a projective transformation. It is a figure which shows the example of each corresponding point of the left and right cameras used for. Hereinafter, S represents each step.

本発明の実施形態は、従来のように路面全体の自車両からの距離や面の傾きを求めるのではなく、例えば数十m先に所定の特定領域を設定してその特定領域の距離及び傾きを求め、車両が進行することにより路面が刻々と変化するとき、その特定領域の距離及び傾きの情報を時系列的に結合して、特定平面を含む特定平面より手前の路面の勾配を検出するものである。   The embodiment of the present invention does not calculate the distance from the host vehicle and the inclination of the surface of the entire road surface as in the past, but sets a predetermined specific area, for example, several tens of meters away, and the distance and inclination of the specific area. When the road surface changes every moment as the vehicle travels, information on the distance and inclination of the specific area is combined in time series to detect the gradient of the road surface before the specific plane including the specific plane. Is.

先ず、図1に示すように、車両1は、フロントウィンドウ2の上方に設置されたステレオカメラ4と、ECU処理装置6とを有する。
図2に示すように、道路領域検出処理においては、S1において、ステレオカメラ4によりステレオ画像を取得する。得られた画像のうち、一方の画像を基準画像(図3(a))とし、他方の画像を参照画像(図3(b))とする。
次に、図2のS2おいて、ECU6は、前処理として、これらの基準画像及び参照画像を取り込み、両画像の輝度を一致させるためにLOGフィルタなどを用いてコントラスト調整を行う。
First, as shown in FIG. 1, the vehicle 1 includes a stereo camera 4 installed above the front window 2 and an ECU processing device 6.
As shown in FIG. 2, in the road area detection process, a stereo image is acquired by the stereo camera 4 in S1. Of the obtained images, one image is a reference image (FIG. 3A) and the other image is a reference image (FIG. 3B).
Next, in S2 of FIG. 2, as a pre-processing, the ECU 6 takes in these standard image and reference image, and performs contrast adjustment using a LOG filter or the like in order to match the luminance of both images.

次に、図2のS3に示すように、参照画像(図3(b))を基準画像(図3(a))の視点から見た画像に後述する(1)射影変換行列算出を用いて視点変換を行う。この処理では、道路平面に対する射影変換行列を動的に推定し、参照画像(図3(b))を射影変換して図3(c)に示すような射影変換画像を得る。このように得られた射影変換画像によれば、参照画像に含まれる高さのある物体が射影変換によって傾くことから、射影変換後の参照画像(図3(c))と基準画像(図3(a))との間で差分を求めることで、高さのない道路平面部分を抽出することが出来る。   Next, as shown in S3 of FIG. 2, the reference image (FIG. 3B) is converted into an image viewed from the viewpoint of the standard image (FIG. 3A) using (1) projective transformation matrix calculation described later. Perform viewpoint conversion. In this process, the projective transformation matrix for the road plane is dynamically estimated, and the projective transformation image as shown in FIG. 3C is obtained by projective transformation of the reference image (FIG. 3B). According to the projective transformation image obtained in this way, an object with a height included in the reference image is tilted by the projective transformation, so that the reference image (FIG. 3C) after the projective transformation and the standard image (FIG. 3). By obtaining the difference from (a)), it is possible to extract a road plane portion having no height.

即ち、先ず、図2のS4において、図3(d)に示すように、基準画像(図3(a))と射影変換後の参照画像(図3(c))の輝度値における差分画像を作成し、次に、図3(e)で黒く示される部分のように、輝度差がしきい値以下となる領域を求める。そして、図2のS5において、図3(f)に示すように、グレーで示すような道路領域における(2)道路平面の姿勢を算出することが出来る。
これらの処理は、後述するように、路面を複数の分割領域に分けたそれぞれの特定平面について行うことが出来る。
That is, first, in S4 of FIG. 2, as shown in FIG. 3D, a difference image in luminance values between the base image (FIG. 3A) and the reference image after projective transformation (FIG. 3C) is obtained. Next, an area where the luminance difference is equal to or less than the threshold value is obtained as shown by a black portion in FIG. Then, in S5 of FIG. 2, as shown in FIG. 3 (f), (2) the posture of the road plane in the road region as shown in gray can be calculated.
As will be described later, these processes can be performed for each specific plane obtained by dividing the road surface into a plurality of divided regions.

次に、本発明の実施形態による車両用走行路面検出装置において行われる、車両から特定平面までの距離d及び特定平面の姿勢nを求めるための道路領域検出処理についてより詳細に説明する。
1. (1)射影変換行列算出(図2のS3)
(1)射影変換行列算出式
参照画像Irを射影変換行列Hで変換した画像と基準画像Ibに対して、平面領域推定範囲内

Figure 2009139324
での輝度差の2乗を評価関数e(H)として、これを最小にする射影変換行列
Figure 2009139324
を求める。算出式は以下のようになる。
Figure 2009139324
ただし、
Figure 2009139324
は画像iの同次座標で表した位置
Figure 2009139324
での輝度値、Hは画像間の平面部に対応した射影変換行列とする。 Next, the road area detection process for obtaining the distance d from the vehicle to the specific plane and the attitude n of the specific plane performed in the vehicle road surface detection apparatus according to the embodiment of the present invention will be described in more detail.
1. (1) Projection transformation matrix calculation (S3 in FIG. 2)
(1) Projection transformation matrix calculation formula For the image obtained by transforming the reference image I r with the projection transformation matrix H and the standard image I b , within the plane region estimation range
Figure 2009139324
Projection transformation matrix that minimizes the square of the luminance difference at と し て as the evaluation function e (H)
Figure 2009139324
Ask for. The calculation formula is as follows.
Figure 2009139324
However,
Figure 2009139324
Is the position of image i in homogeneous coordinates
Figure 2009139324
The luminance value at H and H is a projective transformation matrix corresponding to the plane portion between images.

(2)射影変換行列算出方法
式(1)を満たす射影変換行列を探索により求める。処理手順は以下のようになる。
(a)前時刻に推定した射影変換行列が存在する場合は、それを初期値とする。平面抽出処理のスタート時は前時刻の射影変換行列が存在しないため、水平な道路に停車した状態で撮影した画像から道路平面内の図4に示すような対応点(例えば、路面上で特定の輝度を有する白線、路面上の標識、マンホールなど)を設定し最小2乗法を用いて求めた射影変換行列H0を初期値とする。
(2) Projection transformation matrix calculation method A projection transformation matrix satisfying equation (1) is obtained by searching. The processing procedure is as follows.
(A) If there is a projective transformation matrix estimated at the previous time, it is set as an initial value. At the start of the plane extraction process, there is no projective transformation matrix at the previous time, so corresponding points as shown in FIG. 4 in the road plane (for example, specific on the road surface) A projection transformation matrix H 0 obtained by setting a white line having luminance, a sign on the road surface, a manhole, etc.) and using the least square method is set as an initial value.

(b)ステレオカメラ画像から射影変換行列を計算する。次に、射影変換行列は式(2)で表される。これを特異値分解して道路平面の法線ベクトルを求め、射影変換行列H0から求めた法線ベクトルn0と内積を計算して、ある範囲に収まり且つ平面領域が見つかるときはその射影変換行列は正しいと判断する。それ以外の時は、誤ったローカルミニマムに陥ったとして、次の射影変換行列H1を初期値として同様の計算を行う。それでも正しい射影変換行列が見つからない場合は、射影変換行列H2を初期値として同様の計算を行う。ただし、射影変換行列H1、H2は、射影変換行列H0の平面法線ベクトルn0をピッチ方向前後に4°傾けた法線ベクトルn1、n2と射影変換行列H0より求めたR、t、dを用いて式(2)より求めたものである。

Figure 2009139324
ただし、ステレオカメラ間の回転行列をR、ベースラインベクトルをt、平面法線ベクトルをn、カメラと平面間距離をd、基準カメラと参照カメラの内部パラメータをA1、A2、定数項をkとする。定数項(k≠0)は、画像が得られた射影変換行列には定数倍の自由度が存在することを示す。 (B) A projective transformation matrix is calculated from the stereo camera image. Next, the projective transformation matrix is expressed by Equation (2). This singular value decomposition to determine the normal vector of the road plane, and calculates the normal vector n 0 and the inner product calculated from the projective transformation matrix H 0, when found and plan area fit in a range of the projective transformation Judge that the matrix is correct. In other cases, the same calculation is performed using the next projective transformation matrix H 1 as an initial value, assuming that an erroneous local minimum has occurred. If a correct projection transformation matrix is still not found, the same calculation is performed using the projection transformation matrix H 2 as an initial value. However, projective transformation matrix H 1, H 2 was determined from the normal vectors n 1, n 2 and projective transformation matrix H 0 for the planar normal vector n 0 inclined 4 ° in the longitudinal pitch direction of the projective transformation matrix H 0 It is obtained from the equation (2) using R, t, and d.
Figure 2009139324
However, the rotation matrix between stereo cameras is R, the baseline vector is t, the plane normal vector is n, the distance between the camera and the plane is d, the internal parameters of the reference camera and the reference camera are A 1 and A 2 , and the constant terms are k. The constant term (k ≠ 0) indicates that the projective transformation matrix from which the image is obtained has a degree of freedom that is a constant multiple.

(c)すべての射影変換行列(H0、H1、H2)を用いても正しい射影変換行列が求まらない場合は、その画像中に平面は存在しないと見なし、射影変換行列と計算領域をリセットし、ここで処理を終え、次の処理へと進む。 (C) If a correct projection transformation matrix cannot be obtained even if all projection transformation matrices (H 0 , H 1 , H 2 ) are used, it is assumed that no plane exists in the image, and the projection transformation matrix and calculation are performed. The area is reset, and the process ends here and proceeds to the next process.

2. (2)道路平面の姿勢算出(図3のS5)
ステレオ画像間の平面に対する射影変換行列から、特異値分解を用いることでステレオカメラに対する平面の向きと位置を算出する。式(2)のカメラ内部パラメータA1、A2が既知であるとすると、式(3)のように射影変換行列H′を特異値分解できる。

Figure 2009139324

Figure 2009139324
t/d、nは以下の関係式から求めることができる。
Figure 2009139324
ただし、σ1≠σ2≠σ3のとき、
Figure 2009139324
(ε1,3=±1)・・・(5)
Figure 2009139324
ε1,3を決定するために、2台のカメラが道路面を向いており平面が見えているという条件を加える。すなわち、nと
Figure 2009139324
との内積が正になる。これで、解が2つとなる。次に、それぞれのnについて、求まったtと、実際のカメラ配置の大まかな並進ベクトルである
Figure 2009139324
との内積を計算し、1に近いほうのtをnの解とする。 2. (2) Road plane posture calculation (S5 in FIG. 3)
The orientation and position of the plane relative to the stereo camera are calculated from the projective transformation matrix for the plane between the stereo images by using singular value decomposition. If the camera internal parameters A 1 and A 2 in Equation (2) are known, the projective transformation matrix H ′ can be decomposed into singular values as shown in Equation (3).
Figure 2009139324

Figure 2009139324
t / d and n can be obtained from the following relational expression.
Figure 2009139324
However, when σ 1 ≠ σ 2 ≠ σ 3
Figure 2009139324
1,3 = ± 1) (5)
Figure 2009139324
In order to determine ε 1,3 , a condition is added that the two cameras are facing the road and the plane is visible. I.e. n and
Figure 2009139324
The inner product with becomes positive. This gives two solutions. Next, for each n, the calculated t and the approximate translation vector of the actual camera placement
Figure 2009139324
The t product closer to 1 is taken as the solution of n.

次に、dは得られたt/dの絶対値とカメラ間のベースライン長|t|から次の式より求めることができる。

Figure 2009139324
以上のようにして、特定平面の平面定数として、車両1から特定平面までの距離d及び特定平面の姿勢(傾き/法線ベクトル)nを求めることが出来る。 Next, d can be obtained from the obtained absolute value of t / d and the baseline length | t |
Figure 2009139324
As described above, the distance d from the vehicle 1 to the specific plane and the attitude (inclination / normal vector) n of the specific plane can be obtained as the plane constant of the specific plane.

次に、図5乃至図7により、本発明の実施形態による車両用走行路面検出装置の処理の概念を説明する。
図5は、車両の進行方向の前方に設定した画像処理を行う特定領域を示す概念図であり、図6は、図5のような特定領域(図6(a))と、所定時間後に車両に向けて移動した過去に設定した特定領域(B、C、D)(図6(b)、(c)、(d))と、により平面定数が決定された路面を説明するための概念図であり、図7は、それぞれ所定時間前において平面定数が決定された特定領域の位置(a、c、e)と、それらの過去の特定領域の位置が現在の位置に補正された位置(b、d、f)と、現在における特定領域の位置(g)とを示す概念図である。
Next, the concept of processing of the vehicle road surface detection device according to the embodiment of the present invention will be described with reference to FIGS.
FIG. 5 is a conceptual diagram showing a specific area where image processing is set ahead of the traveling direction of the vehicle. FIG. 6 shows a specific area (FIG. 6A) as shown in FIG. The conceptual diagram for demonstrating the road surface where the plane constant was determined by the specific area | region (B, C, D) (FIG.6 (b), (c), (d)) set in the past which moved toward FIG. 7 shows the positions (a, c, e) of the specific areas in which the plane constants are determined a predetermined time before, and the positions (b) where the positions of the past specific areas are corrected to the current positions. , D, f) and the current position (g) of the specific region.

先ず、図5に示すように、本発明の実施形態では、車両の進行方向前方の数十m先における所定の領域の路面を、特定領域(特定平面)として決定し、上述した「車両から特定平面までの距離d及び特定平面の姿勢nを求めるための道路領域検出処理」により、この特定領域の平面定数(距離d、傾き(法線ベクトル)n)を算出する。   First, as shown in FIG. 5, in the embodiment of the present invention, a road surface of a predetermined area several tens of meters ahead in the traveling direction of the vehicle is determined as a specific area (specific plane), The plane constant (distance d, slope (normal vector) n) of the specific area is calculated by “road area detection processing for obtaining the distance d to the plane and the attitude n of the specific plane”.

図6(a)は、現在の路面状態を示し、特定領域をAとして示す。次に、図6(b)は、ΔT秒後の路面状態を示し、図6(a)で示す特定領域であった部分Aが車両側に近づいていることが分かる。図6(b)では、図6(a)と同様に、車両の進行方向前方の数十m先における所定の領域の路面を、特定領域(特定平面)Bとして決定し、その特定領域の平面定数(距離d、傾き(法線ベクトル)n)を算出する。   FIG. 6A shows the current road surface state, and the specific area is indicated as A. FIG. Next, FIG. 6B shows the road surface state after ΔT seconds, and it can be seen that the portion A which was the specific region shown in FIG. 6A is approaching the vehicle side. In FIG. 6 (b), as in FIG. 6 (a), the road surface of a predetermined area several tens of meters ahead in the traveling direction of the vehicle is determined as a specific area (specific plane) B, and the plane of the specific area is determined. A constant (distance d, slope (normal vector) n) is calculated.

図6(c)は、2ΔT秒後の路面状態を示し、図6(a)及び図6(b)で示す特定領域であった部分A、Bが車両側に近づいていることが分かる。図6(c)では、図6(a)と同様に、車両の進行方向前方の数十m先における所定の領域の路面を、特定領域(特定平面)Cとして決定し、その特定領域の平面定数(距離d、傾き(法線ベクトル)n)を算出する。   FIG. 6C shows the road surface state after 2ΔT seconds, and it can be seen that the portions A and B which were the specific areas shown in FIGS. 6A and 6B are approaching the vehicle side. In FIG. 6C, as in FIG. 6A, the road surface of a predetermined area at several tens of meters ahead in the traveling direction of the vehicle is determined as a specific area (specific plane) C, and the plane of the specific area A constant (distance d, slope (normal vector) n) is calculated.

図6(d)は、3ΔT秒後の路面状態を示し、図6(a)〜(c)で示す特定領域であった部分A、B、Cが車両側に近づいていることが分かる。図6(d)でも、図6(a)と同様に、車両の進行方向前方の数十m先における所定の領域の路面を、特定領域(特定平面)Dとして決定し、その特定領域の平面定数(距離d、傾き(法線ベクトル)n)を算出する。
図6(a)乃至図6(d)に示すように、路面は、静止物(例えば、電信柱や道路標識など)と共に車両側に近づいてくることが分かる。
FIG. 6D shows the road surface state after 3 ΔT seconds, and it can be seen that the portions A, B, and C that were the specific regions shown in FIGS. 6A to 6C are approaching the vehicle side. Also in FIG. 6D, as in FIG. 6A, the road surface of the predetermined area at several tens of meters ahead in the traveling direction of the vehicle is determined as the specific area (specific plane) D, and the plane of the specific area A constant (distance d, slope (normal vector) n) is calculated.
As shown in FIGS. 6A to 6D, it can be seen that the road surface approaches the vehicle side together with a stationary object (for example, a telephone pole or a road sign).

今度は、図7に示すように、現在の路面状態A、B、C、Dにおける平面定数をどのように決定するかを説明する。
先ず、図7(a)に示すように、3ΔT秒前には、静止物b及び特定領域Aが存在する。そして、現在では、図7(b)に示すように、3ΔT秒後の現在では、静止物bの移動量をもとに、過去(図7(a))に特定した特定領域Aが所定距離だけ車両側に近づいていることが特定される。
Next, as shown in FIG. 7, how to determine the plane constants in the current road surface states A, B, C, and D will be described.
First, as shown in FIG. 7A, a stationary object b and a specific area A exist 3 seconds before T. At present, as shown in FIG. 7B, at present, after 3 ΔT seconds, the specific area A specified in the past (FIG. 7A) is a predetermined distance based on the moving amount of the stationary object b. Only the vehicle side is identified.

同様に、図7(c)に示すように、2ΔT秒前には、静止物b及び特定領域Bが存在する。そして、現在では、図7(d)に示すように、2ΔT秒後の現在では、静止物bの移動量をもとに、過去(図7(c))に特定した特定領域Bが所定距離だけ車両側に近づいていることが特定される。   Similarly, as shown in FIG. 7C, a stationary object b and a specific area B exist 2 seconds before T. At present, as shown in FIG. 7D, at the present after 2ΔT seconds, the specific area B specified in the past (FIG. 7C) is a predetermined distance based on the movement amount of the stationary object b. Only the vehicle side is identified.

同様に、図7(e)に示すように、ΔT秒前には、静止物b及び特定領域Cが存在する。そして、現在では、図7(f)に示すように、ΔT秒後の現在では、静止物bの移動量をもとに、過去(図7(e))に特定した特定領域Cが所定距離だけ車両側に近づいていることが特定される。
そして、現在では、図7(g)に示すように、特定領域Dが存在する。
Similarly, as shown in FIG. 7E, the stationary object b and the specific area C exist before ΔT seconds. At present, as shown in FIG. 7F, at the present time after ΔT seconds, the specific area C specified in the past (FIG. 7E) is a predetermined distance based on the movement amount of the stationary object b. Only the vehicle side is identified.
And now, as shown in FIG.7 (g), the specific area | region D exists.

これらのことから、図7(h)に示すように、3ΔT秒前に平面定数が決定された領域A、2ΔT秒前に平面定数が決定された領域B、ΔT秒前に平面定数が決定された領域C、及び、現在の領域Dが、結合された状態として得られる。それぞれの領域A〜Dの平面定数は、それぞれ、3ΔT秒前、2ΔT秒前、ΔT秒前及び現在で特定されているので、車両の進行方向の広い領域の道路状態(勾配など)を把握することが出来るのである。   From these, as shown in FIG. 7 (h), the area A in which the plane constant was determined 3ΔT seconds ago, the area B in which the plane constant was determined 2ΔT seconds ago, and the plane constant was determined in ΔT seconds ago. The area C and the current area D are obtained as a combined state. Since the plane constants of the areas A to D are specified 3ΔT seconds ago, 2ΔT seconds ago, ΔT seconds ago, and now, respectively, the road conditions (gradients, etc.) in a wide area in the traveling direction of the vehicle are grasped. It can be done.

次に、図8乃至図10により、ECUによる処理内容をブロック図により説明する。図8は、本発明の実施形態による車両用走行路面検出装置における処理内容を示すブロック図であり、図9は、オプティカルフロー処理の内容を示す概念図であり、図10は、位置補正の処理内容を示すフローチャートである。
図8に示すように、ECU6は、ステレオカメラ4により撮像された路面画像を、ΔT毎に、画像記憶部(右)20及び画像記憶部(左)22で記憶する。路面領域判定部24では、これらの記憶された路面画像の情報を基に路面領域を判定する。この判定部24では、上述した車両から特定平面までの距離d及び特定平面の姿勢nを求めるための道路領域検出処理により射影変換を用いて判定する。なお、この路面領域判定部24では、予め設定された進行方向に対する路面の領域を路面領域として判定するか、或いは、白線や路肩を検出して路面領域として判定しても良い。
Next, processing contents by the ECU will be described with reference to block diagrams with reference to FIGS. FIG. 8 is a block diagram showing processing contents in the vehicle road surface detection device according to the embodiment of the present invention, FIG. 9 is a conceptual diagram showing contents of optical flow processing, and FIG. 10 is processing for position correction. It is a flowchart which shows the content.
As shown in FIG. 8, the ECU 6 stores the road surface image captured by the stereo camera 4 in the image storage unit (right) 20 and the image storage unit (left) 22 for each ΔT. The road surface area determination unit 24 determines a road surface area based on the stored information on the road surface image. In this determination unit 24, determination is performed using projective transformation by road area detection processing for obtaining the distance d from the vehicle to the specific plane and the attitude n of the specific plane. The road surface area determination unit 24 may determine a road surface area with respect to a preset traveling direction as a road surface area, or may detect a white line or a road shoulder and determine the road surface area.

次に、画像処理領域(特定領域、特定平面)設定部26では、上述した「車両から特定平面までの距離d及び特定平面の姿勢nを求めるための道路領域検出処理(射影変換による道路平面の算出)」により路面状態(距離d、傾きn)を特定する特定領域を数十m前方側に設定する。   Next, the image processing area (specific area, specific plane) setting unit 26 described above “road area detection processing for obtaining the distance d from the vehicle to the specific plane and the attitude n of the specific plane (the road plane by projective transformation) The specific area for specifying the road surface condition (distance d, slope n) is set to the front side of several tens of meters.

次に、特定平面内対応点探索28では、ΔT毎に、左右のカメラ6のそれぞれの撮像画面における路面領域(路面領域判定部24で判定された路面)の互いの対応点を探索する。対応点とは、特定の輝度を有する部分であり、白線、路面上の標識、マンホールなどである(図4参照)。これらの対応点により射影変換を行うことが出来る。   Next, in the specific plane corresponding point search 28, for each ΔT, the corresponding points of the road surface area (the road surface determined by the road surface area determination unit 24) on the respective imaging screens of the left and right cameras 6 are searched. The corresponding point is a portion having a specific luminance, such as a white line, a road sign, a manhole, etc. (see FIG. 4). Projective transformation can be performed using these corresponding points.

次に、特定平面平面定数算出部30では、ΔT毎に、画像処理領域設定部26で設定した特定領域の平面定数である車両からの距離di、姿勢(傾き)niを算出する。ここでは、特定平面内対応点探索部28で設定された対応点の視差角により、距離及び傾きを算出する。より詳細には、上述した「車両から特定平面までの距離d及び特定平面の姿勢nを求めるための道路領域検出処理(射影変換による道路平面の算出)」により行われる。
また、この特定平面平面定数算出部30では、車両と静止物bとの相対距離(xi、yi)が算出される。この特定平面平面定数算出部30で算出された特定平面の平面定数及び車両と静止物bとの相対距離は、特定平面平面定数記憶部32に、ΔT毎に記憶される。
Next, the specific plane plane constant calculation unit 30 calculates a distance di from the vehicle and an attitude (tilt) ni that are plane constants of the specific area set by the image processing area setting unit 26 for each ΔT. Here, the distance and the inclination are calculated based on the parallax angle of the corresponding point set by the specific point corresponding point search unit 28. More specifically, it is performed by the above-described “road area detection processing for calculating the distance d from the vehicle to the specific plane and the attitude n of the specific plane (calculation of the road plane by projective transformation)”.
Further, the specific plane plane constant calculating unit 30 calculates the relative distance (xi, yi) between the vehicle and the stationary object b. The plane constant of the specific plane calculated by the specific plane plane constant calculation unit 30 and the relative distance between the vehicle and the stationary object b are stored in the specific plane plane constant storage unit 32 for each ΔT.

一方、特定平面の移動量(例えば、図6(a)〜(d)参照)を正確に算出するために、静止物検出部(オプティカルフロー処理部)34及び位置補正部36での処理を行う。
具体的には、静止物検出部(オプティカルフロー処理部)34では、図9に示すように、Δtにおける画像と、Δt+1における画像とをマッチング処理し、静止物bの移動ベクトルを算出する。
On the other hand, in order to accurately calculate the amount of movement of the specific plane (for example, see FIGS. 6A to 6D), the stationary object detection unit (optical flow processing unit) 34 and the position correction unit 36 perform processing. .
Specifically, as shown in FIG. 9, the stationary object detection unit (optical flow processing unit) 34 performs a matching process on the image at Δt and the image at Δt + 1 to calculate the movement vector of the stationary object b.

そして、位置補正部36では、図10に示すように、先ず、S1において静止物bの位置変化(オプティカルフローにより得られる移動ベクトル)により自車両の移動量を算出し、次に、S2において、自車両の移動量により、前フレーム画像(例えば、図7(a))が、今フレーム画像(例えば、図7(b))で表される領域を算出する。次に、S3において、マッチング処理により前フレーム画像と今フレーム画像との位置を特定する。   Then, as shown in FIG. 10, the position correction unit 36 first calculates the amount of movement of the host vehicle based on the position change of the stationary object b (movement vector obtained by optical flow) in S1, and then in S2, Based on the amount of movement of the host vehicle, the area where the previous frame image (for example, FIG. 7A) is represented by the current frame image (for example, FIG. 7B) is calculated. Next, in S3, the positions of the previous frame image and the current frame image are specified by matching processing.

次に、走行路面勾配検出部38では、特定平面平面定数算出部30からの現在の特定平面の平面定数(例えば、図7(g))の情報と、特定平面平面定数記憶部32に記憶された過去の特定平面(例えば、図7(a)、(c)、(e))の情報を位置補正部36により移動量が補正された情報(例えば、図7(b)、(d)、(f))により、図7(h)で示すような、車両前方の広い領域の道路状態(距離d、傾きn)を検出するようになっている。
そして、この検出された路面勾配の情報を利用して、安全システム8、変速システム(AT)9、エンジンシステム(ENG)10の制御が行われる。
Next, the traveling road surface gradient detection unit 38 stores the information on the plane constant (for example, FIG. 7G) of the current specific plane from the specific plane plane constant calculation unit 30 and the specific plane plane constant storage unit 32. In addition, information (for example, FIG. 7B, FIG. (F)) detects the road condition (distance d, slope n) in a wide area in front of the vehicle as shown in FIG. 7 (h).
Then, the safety system 8, the transmission system (AT) 9, and the engine system (ENG) 10 are controlled using the detected road surface gradient information.

次に、図11により、本発明の実施形態による車両用走行路面検出装置における処理内容であるフローチャートについて説明する。図11は、本発明の実施形態による車両用走行路面検出装置における処理内容であるフローチャートである。Sは、各ステップを示す。
図11に示すように、S1では、各種パラメータのイニシャライズ処置が行われる。ここでは、i=0とされる。次に、S2において、ステレオカメラ4により撮像されたデータが画像記憶部20、22に記憶される。次に、S3において、路面領域判定部24により、走行路面となる対象領域が抽出され、さらに、S4において、画像処理領域設定部28で画像処理する特定領域を設定する。この特定領域は、車速に応じて、例えば、高速時には遠方に設定し、低速時には近方に設定するようにしても良い。また、特定領域の広さを遠方時には小さく、近方時には広くするようにしても良い。このように、特定領域までの距離を車両の速度に応じて変更するので、車両の速度に応じて、車両制御及び画像処理に適した特定領域を設定することが出来る。また、特定領域の広さを遠方時には小さく、近方時には広くすることで、車両制御及び画像処理に適した特定領域を設定することが出来る。
Next, with reference to FIG. 11, a flowchart as processing contents in the vehicle road surface detection apparatus according to the embodiment of the present invention will be described. FIG. 11 is a flowchart showing the processing contents in the vehicle road surface detection device according to the embodiment of the present invention. S indicates each step.
As shown in FIG. 11, in S1, various parameters are initialized. Here, i = 0. Next, in S <b> 2, data captured by the stereo camera 4 is stored in the image storage units 20 and 22. Next, in S3, the road surface area determination unit 24 extracts a target area to be a traveling road surface, and in S4, the image processing area setting unit 28 sets a specific area for image processing. Depending on the vehicle speed, this specific area may be set to a far distance at a high speed and close to a low speed, for example. In addition, the area of the specific area may be small at a distance and wide at a near distance. Thus, since the distance to the specific area is changed according to the speed of the vehicle, a specific area suitable for vehicle control and image processing can be set according to the speed of the vehicle. Further, the specific area suitable for vehicle control and image processing can be set by reducing the area of the specific area at a distance and increasing the area at a distance.

次に、S5において、静止物検出部(オプティカルフロー処理部)34により、静止物bの抽出及びオプティカルフローによる移動ベクトルの算出が行われる。
次に、S6において、特定平面平面定数算出部34により、特定平面Ai、jの平面データ(位置di、j、傾きni、j)が検出されると共に、特定平面平面定数記憶部2に記憶される。
Next, in S5, the stationary object detection unit (optical flow processing unit) 34 extracts the stationary object b and calculates the movement vector by the optical flow.
Next, in S <b> 6, the specific plane plane constant calculation unit 34 detects plane data (position di, j, inclination ni, j) of the specific plane Ai, j and stores it in the specific plane plane constant storage unit 2. The

次に、S7において、特定平面の距離diが所定の小さい値(例えば、数m)より小さいか否か、及び、特定平面の距離niが所定の大きな値(例えば、通常の道路ではあり得ない傾き)より大きいか否かが判定される。そして、特定平面の距離diが所定の小さい値より小さい場合及び/又は特定平面の距離niが所定の大きな値より大きい場合には、処理を中止してS1に戻る。このような処理により、例えば、自車両の前方に先行車両が割り込んで来た場合などに、不要な処理を中止して処理負担を小さくすることが出来る。   Next, in S7, whether or not the distance di of the specific plane is smaller than a predetermined small value (for example, several m), and the distance ni of the specific plane cannot be a predetermined large value (for example, normal road) It is determined whether it is greater than (tilt). When the distance di of the specific plane is smaller than the predetermined small value and / or when the distance ni of the specific plane is larger than the predetermined large value, the process is stopped and the process returns to S1. With such a process, for example, when a preceding vehicle has entered the front of the host vehicle, unnecessary processes can be stopped to reduce the processing load.

次に、S8において、特定平面平面定数記憶部32に記憶された、各時刻Ti−1、Ti−2、T0における特定平面平面定数を読み込む。次に、S9において、S8で読み込まれた平面定数を、静止物検出部(オプティカルフロー処理部)34及び位置補正部36により処理された静止物bの移動量(自車両との相対距離((xi、yi))で表される)により、補正する。
次に、S10において、S8及びS9の処理で得られたデータにより、路面勾配(例えば、図7(h))を算出する。
Next, in S8, the specific plane plane constant at each time Ti-1, Ti-2, T0 stored in the specific plane plane constant storage unit 32 is read. Next, in S9, the plane constant read in S8 is used to calculate the movement amount of the stationary object b processed by the stationary object detection unit (optical flow processing unit) 34 and the position correction unit 36 (relative distance (( x i, y i))))
Next, in S10, a road surface gradient (for example, FIG. 7 (h)) is calculated from the data obtained in the processes of S8 and S9.

次に、S10において、特定領域の平面Aの時刻Tiでの平面定数(位置di、ni)及び静止物bとの相対距離(xi、yi)を、特定平面平面定数記憶部32に記憶させる。次に、S11において、i=i+1として次の処理に進む。   Next, in S 10, the plane constant (position di, ni) and the relative distance (xi, yi) with respect to the stationary object b at the time Ti of the plane A of the specific area are stored in the specific plane plane constant storage unit 32. Next, in S11, i = i + 1 and the process proceeds to the next process.

以上、本発明の実施形態によれば、走行路面を撮像した路面画像から所定の広い路面領域における路面傾斜を検出するために、走行路面を撮像するステレオカメラ4により撮像された路面画像から、撮像された路面の車両から所定距離離れた特定の領域を特定領域として設定し、この特定領域において、ステレオカメラ4で撮像されたそれぞれの路面画像にて探索された互いの対応点を検出すると共に射影変換により特定平面を規定する平面定数を算出している。そして、特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域と、を所定時間における車両の移動量に応じて結合して走行路面として設定するようにしている。   As described above, according to the embodiment of the present invention, in order to detect the road surface inclination in a predetermined wide road surface area from the road surface image obtained by imaging the traveling road surface, the imaging is performed from the road surface image captured by the stereo camera 4 that images the traveling road surface. A specific area that is a predetermined distance away from the vehicle on the road surface is set as a specific area, and in this specific area, corresponding points searched for in each road surface image captured by the stereo camera 4 are detected and projected. A plane constant defining a specific plane is calculated by conversion. Then, the specific area and at least one specific area set in the past before the specific area after a predetermined time are combined according to the amount of movement of the vehicle at the predetermined time and set as a traveling road surface. Yes.

従って、撮像された路面の車両から所定距離離れた特定の領域を特定領域として設定し、この特定領域において平面定数を算出し、特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域とを所定時間における車両の移動量に応じて結合して走行路面として設定するので、例えば、数十m先のような特定領域の画像処理のみで、特定領域から車両直前までの路面の勾配を検出することが出来、処理負担を軽減することが出来る。また、特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域とを所定時間における車両の移動量に応じて結合して走行路面として設定するので、路面勾配の検出も正確なものとなる。   Accordingly, a specific area that is a predetermined distance away from the vehicle on the imaged road surface is set as the specific area, a plane constant is calculated in the specific area, and the specific area and the past before the specific area after a predetermined time are set. Since at least one specific area is combined and set as a traveling road surface according to the amount of movement of the vehicle in a predetermined time, the vehicle from the specific area can be obtained only by image processing of the specific area such as several tens of meters away. It is possible to detect the gradient of the road surface until just before, and to reduce the processing load. In addition, since the specific area and at least one specific area set in the past before this specific area after a predetermined time are combined according to the amount of movement of the vehicle in the predetermined time and set as the road surface, the road surface gradient Detection is also accurate.

また、本実施形態においては、車両の移動量は、撮像された画像中の所定の静止物の位置関係を基準に決定されるので、車両の移動量を、静止物を利用した高精度な位置補正により決定することが出来るので、より精度良く路面勾配を検出することが出来る。
さらに、車両の移動量は、撮像された画像中の所定の静止物をオプティカルフロー処理することにより決定されるので、車両の移動量を、オプティカルフロー処理により決定することが出来るので、より精度良く路面勾配を検出することが出来る。
In the present embodiment, since the amount of movement of the vehicle is determined based on the positional relationship of a predetermined stationary object in the captured image, the amount of movement of the vehicle is determined using a highly accurate position using the stationary object. Since it can be determined by correction, the road surface gradient can be detected with higher accuracy.
Furthermore, since the moving amount of the vehicle is determined by performing an optical flow process on a predetermined stationary object in the captured image, the moving amount of the vehicle can be determined by the optical flow process, so that the accuracy can be improved. The road surface gradient can be detected.

本発明の実施形態による車両用走行路面検出装置が適用される車両の概念図である。1 is a conceptual diagram of a vehicle to which a vehicle road surface detection device according to an embodiment of the present invention is applied. 本発明の実施形態による車両用走行路面検出装置に用いられる道路領域検出処理の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the road area detection process used for the traveling road surface detection apparatus for vehicles by embodiment of this invention. 本発明の実施形態による車両用走行路面検出装置に用いられる道路領域検出処理の処理画像の例を示す概念図である。It is a conceptual diagram which shows the example of the process image of the road area detection process used for the traveling road surface detection apparatus for vehicles by embodiment of this invention. 射影変換に用いる左右のカメラのそれぞれの対応点の例を示す図である。It is a figure which shows the example of each corresponding point of the right and left camera used for projective transformation. 車両の進行方向の前方に設定した画像処理を行う特定領域を示す概念図である。It is a conceptual diagram which shows the specific area | region which performs the image process set ahead of the advancing direction of a vehicle. 図5のような特定領域(a)と、所定時間後に車両に向けて移動した過去に設定した特定領域(b、c、d)と、により平面定数が決定された路面を説明するための概念図である。Concept for explaining a road surface in which a plane constant is determined by a specific area (a) as shown in FIG. 5 and a specific area (b, c, d) set in the past that has moved toward the vehicle after a predetermined time. FIG. それぞれ所定時間前において平面定数が決定された特定領域の位置(a、c、e)と、それらの過去の特定領域の位置が現在の位置に補正された位置(b、d、f)と、現在における特定領域の位置(g)とを示す概念図である。The position (a, c, e) of the specific area where the plane constant is determined in each predetermined time, the position (b, d, f) where the position of the specific area in the past is corrected to the current position, It is a conceptual diagram which shows the position (g) of the specific area | region now. 本発明の実施形態による車両用走行路面検出装置における処理内容を示すブロック図である。It is a block diagram which shows the processing content in the traveling road surface detection apparatus for vehicles by embodiment of this invention. オプティカルフロー処理の内容を示す概念図である。It is a conceptual diagram which shows the content of the optical flow process. 位置補正の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of a position correction. 本発明の実施形態による車両用走行路面検出装置における処理内容であるフローチャートである。It is a flowchart which is the processing content in the traveling road surface detection apparatus for vehicles by embodiment of this invention.

符号の説明Explanation of symbols

1 車両
4 ステレオカメラ
6 ECU
1 vehicle 4 stereo camera 6 ECU

Claims (6)

走行路面を撮像した路面画像から所定の広い路面領域における路面傾斜を検出する車両用走行路面検出装置であって、
走行路面を撮像する第1撮像手段と、
この第1撮像手段により撮像された路面画像と少なくとも1部が重複する路面画像が得られるように走行路面を撮像する第2撮像手段と、
撮像された路面の車両から所定距離離れた特定の領域を特定領域として設定する特定領域設定手段と、
この特定領域において、上記第1撮像手段及び上記第2撮像手段で撮像されたそれぞれの路面画像にて探索された互いの対応点を検出すると共に射影変換により上記特定平面を規定する平面定数を算出する特定平面定数算出手段と、
上記特定領域と、所定時間後におけるこの特定領域より手前の過去に設定された少なくとも1つの特定領域と、を上記所定時間における車両の移動量に応じて結合して走行路面として設定する走行路面設定手段と、
を有することを特徴とする車両用走行路面検出装置。
A vehicle road surface detection device for detecting a road surface inclination in a predetermined wide road surface region from a road surface image obtained by imaging a road surface,
First imaging means for imaging a traveling road surface;
Second imaging means for imaging the traveling road surface so as to obtain a road surface image at least partly overlapping with the road surface image captured by the first imaging means;
Specific area setting means for setting a specific area a predetermined distance away from the vehicle on the imaged road surface as the specific area;
In this specific area, the corresponding point searched for in each road image imaged by the first imaging means and the second imaging means is detected, and a plane constant defining the specific plane is calculated by projective transformation. Specific plane constant calculating means for
Driving road surface setting in which the specific area and at least one specific area set in the past before the specific area after a predetermined time are combined and set as a road surface according to the amount of movement of the vehicle at the predetermined time Means,
A vehicle road surface detection device characterized by comprising:
上記車両の移動量は、撮像された画像中の所定の静止物の位置関係を基準に決定される請求項1に記載の車両用走行路面検出装置。   The vehicle travel road surface detection device according to claim 1, wherein the movement amount of the vehicle is determined based on a positional relationship of a predetermined stationary object in the captured image. 上記車両の移動量は、撮像された画像中の所定の静止物をオプティカルフロー処理することにより決定される請求項2に記載の車両用走行路面検出装置。   The vehicle travel road surface detection device according to claim 2, wherein the movement amount of the vehicle is determined by performing an optical flow process on a predetermined stationary object in the captured image. 上記特定領域設定手段は、上記所定距離を車両の速度に応じて変更する請求項1乃至3に記載の車両用走行路面検出装置。   The vehicle travel road surface detection device according to claim 1, wherein the specific area setting unit changes the predetermined distance according to a vehicle speed. 上記平面定数は、車両からの距離d及び傾きnにより規定される請求項1乃至4に記載の車両用走行路面検出装置。   The vehicle road surface detection device according to claim 1, wherein the plane constant is defined by a distance d from a vehicle and an inclination n. 上記走行路面設定手段は、上記所定値以下及び/又は傾きnが所定値以上のとき上記車両の移動量に応じた特定領域と過去の特定領域との結合を中止する請求項5に記載の車両用走行路面検出装置。   The vehicle according to claim 5, wherein the traveling road surface setting means stops the combination of the specific area corresponding to the movement amount of the vehicle and the past specific area when the slope is equal to or less than the predetermined value and / or the slope n. Road surface detection device.
JP2007318567A 2007-12-10 2007-12-10 Travel road surface detecting apparatus for vehicle Pending JP2009139324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007318567A JP2009139324A (en) 2007-12-10 2007-12-10 Travel road surface detecting apparatus for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007318567A JP2009139324A (en) 2007-12-10 2007-12-10 Travel road surface detecting apparatus for vehicle

Publications (1)

Publication Number Publication Date
JP2009139324A true JP2009139324A (en) 2009-06-25

Family

ID=40870059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007318567A Pending JP2009139324A (en) 2007-12-10 2007-12-10 Travel road surface detecting apparatus for vehicle

Country Status (1)

Country Link
JP (1) JP2009139324A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011106877A (en) * 2009-11-13 2011-06-02 Toyota Motor Corp Road gradient estimation apparatus
JP2012007922A (en) * 2010-06-23 2012-01-12 Nec Corp Road structure measuring method and road surface measuring device
KR20140042441A (en) * 2012-09-28 2014-04-07 현대모비스 주식회사 Method and apparatus for predicting slope
WO2014073322A1 (en) * 2012-11-08 2014-05-15 日立オートモティブシステムズ株式会社 Object detection device and object detection method
KR101512557B1 (en) * 2013-07-05 2015-04-22 현대다이모스(주) Apparatus for driving control of 4WD vehicle using image information and Method thereof
JP2016087222A (en) * 2014-11-07 2016-05-23 コニカミノルタ株式会社 Image processor and program
CN114782447A (en) * 2022-06-22 2022-07-22 小米汽车科技有限公司 Road surface detection method, device, vehicle, storage medium and chip

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011106877A (en) * 2009-11-13 2011-06-02 Toyota Motor Corp Road gradient estimation apparatus
JP2012007922A (en) * 2010-06-23 2012-01-12 Nec Corp Road structure measuring method and road surface measuring device
KR20140042441A (en) * 2012-09-28 2014-04-07 현대모비스 주식회사 Method and apparatus for predicting slope
KR101987635B1 (en) 2012-09-28 2019-06-11 현대모비스 주식회사 Method and Apparatus for Predicting Slope
WO2014073322A1 (en) * 2012-11-08 2014-05-15 日立オートモティブシステムズ株式会社 Object detection device and object detection method
US9424462B2 (en) 2012-11-08 2016-08-23 Hitachi Automotive Systems, Ltd. Object detection device and object detection method
KR101512557B1 (en) * 2013-07-05 2015-04-22 현대다이모스(주) Apparatus for driving control of 4WD vehicle using image information and Method thereof
JP2016087222A (en) * 2014-11-07 2016-05-23 コニカミノルタ株式会社 Image processor and program
CN114782447A (en) * 2022-06-22 2022-07-22 小米汽车科技有限公司 Road surface detection method, device, vehicle, storage medium and chip
CN114782447B (en) * 2022-06-22 2022-09-09 小米汽车科技有限公司 Road surface detection method, device, vehicle, storage medium and chip

Similar Documents

Publication Publication Date Title
CN110567469B (en) Visual positioning method and device, electronic equipment and system
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
JP4814669B2 (en) 3D coordinate acquisition device
JP4919036B2 (en) Moving object recognition device
JP4899424B2 (en) Object detection device
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
US9862318B2 (en) Method to determine distance of an object from an automated vehicle with a monocular device
EP2757527B1 (en) System and method for distorted camera image correction
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP2010072807A (en) Device for detecting and determining road boundary
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JP2008182652A (en) Camera posture estimation device, vehicle, and camera posture estimating method
JP7107931B2 (en) Method and apparatus for estimating range of moving objects
JP2009139323A (en) Travel road surface detecting apparatus for vehicle
Labayrade et al. A reliable and robust lane detection system based on the parallel use of three algorithms for driving safety assistance
JP4052291B2 (en) Image processing apparatus for vehicle
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
JP2008309519A (en) Object detection device using image processing
JP2000293693A (en) Obstacle detecting method and device
US11619495B2 (en) Position estimating apparatus and position estimating method
JP2011209070A (en) Image processor
JP3985610B2 (en) Vehicle traveling path recognition device
JP2005148784A (en) Detector for traveling lane on road surface
JP5455037B2 (en) Plane detection apparatus and detection method for detecting a plane from an image