JP2017156965A - Road region detection device - Google Patents

Road region detection device Download PDF

Info

Publication number
JP2017156965A
JP2017156965A JP2016039273A JP2016039273A JP2017156965A JP 2017156965 A JP2017156965 A JP 2017156965A JP 2016039273 A JP2016039273 A JP 2016039273A JP 2016039273 A JP2016039273 A JP 2016039273A JP 2017156965 A JP2017156965 A JP 2017156965A
Authority
JP
Japan
Prior art keywords
parallax
road
value
image
difference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016039273A
Other languages
Japanese (ja)
Inventor
和宏 宮里
Kazuhiro Miyasato
和宏 宮里
深町 映夫
Akio Fukamachi
映夫 深町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016039273A priority Critical patent/JP2017156965A/en
Publication of JP2017156965A publication Critical patent/JP2017156965A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a road region detection device capable of correcting a range of a road region into an original region while preventing an obstacle region at a distant side of a road from being detected erroneously as a road region in a road where a road grade is decreased at the distant side.SOLUTION: A road region detection method includes: calculating a parallax differential value Δdisp obtained by subtracting a parallax value projected on a V-disparity plane from a parallax value of a created road model; and extracting a locus (waveform part) of the parallax differential value Δdisp. Further, a V coordinate position of a disappearance point is calculated from an image. If it is discriminated that an area of a graphic enclosed by a waveform part closest to the V coordinate position of the disappearance point among multiple waveform parts and a V coordinate axis is greater than an area of a graphic in any other interval and a maximum parallax differential value in the locus is equal to or greater than a predetermined threshold, a far end of a road region estimated based on the road model is changed into a maximum end side of a V coordinate position of the waveform part closest to the V coordinate position of the disappearance point.SELECTED DRAWING: Figure 3

Description

本発明は、画像取得手段により取得された画像から、道路領域を検出する道路領域検出装置に関する。   The present invention relates to a road area detection device that detects a road area from an image acquired by an image acquisition means.

障害物への衝突回避及びACC(Adaptive Cruise Control) 等の運転者支援システムに適用される道路領域検出装置は、車両前方の道路領域と障害物とをできるだけ正確に識別する必要がある。   A road area detection device applied to a driver assistance system such as collision avoidance to an obstacle and ACC (Adaptive Cruise Control) needs to identify the road area ahead of the vehicle and the obstacle as accurately as possible.

そこで、従来の道路領域検出装置の一つ(以下、「従来装置」と称呼される。)は、撮像画像から算出された画素毎の視差(disparity) をU−V平面に表現した視差図を使用してU−視差図(U-disparity平面)を作成する。そして、従来装置は、U-disparity平面の下端から上端に向かって、各行について左右の道路境界(白線及びガードレール等のエッジ)を探索する。更に、従来装置は、U-disparity平面上において探索された左右の道路境界の間を道路領域として検出する(例えば、特許文献1を参照。)。   Therefore, one of the conventional road area detection devices (hereinafter referred to as “conventional device”) is a parallax diagram in which the disparity for each pixel calculated from the captured image is expressed on the U-V plane. Use to create a U-disparity map (U-disparity plane). Then, the conventional apparatus searches the left and right road boundaries (edges such as white lines and guardrails) for each row from the lower end to the upper end of the U-disparity plane. Furthermore, the conventional apparatus detects a road area between the left and right road boundaries searched on the U-disparity plane (see, for example, Patent Document 1).

より具体的に述べると、U-disparity平面は、横軸に視差図の横軸であるU座標軸、縦軸に視差(disparity) を対応させた画像である。U-disparity平面の各画素値は、視差図を縦軸と平行な複数の仮想線により区切られてできる複数の微小区間に存在する視差の頻度を輝度(階調)によって表現している。図15(A)に示した例によれば、車両が平坦路を走行中であるときのU-disparity平面において、道路境界(エッジ)81に対応する点は比較的高い輝度を有し、走行可能領域(即ち、道路領域)82に対応する点は比較的低い輝度を有する。そこで、従来装置はU-disparity平面上にて探索した左右のエッジ間83を道路領域として検出する。   More specifically, the U-disparity plane is an image in which the horizontal axis corresponds to the U coordinate axis, which is the horizontal axis of the parallax diagram, and the vertical axis corresponds to the disparity. Each pixel value on the U-disparity plane expresses the frequency of parallax existing in a plurality of minute sections formed by dividing a parallax diagram by a plurality of virtual lines parallel to the vertical axis by luminance (gradation). According to the example shown in FIG. 15A, the point corresponding to the road boundary (edge) 81 has a relatively high brightness on the U-disparity plane when the vehicle is traveling on a flat road, The points corresponding to the possible area (ie road area) 82 have a relatively low brightness. Therefore, the conventional device detects the left-right edge search 83 on the U-disparity plane as a road region.

特開2014−67407号公報JP 2014-67407 A

ところが、例えば、遠方が下り坂となっている平坦路を車両が走行している場合、画像上、遠方の道路領域が見えなくなり、道路遠方の障害物(例えば、ガードレール及びフェンス等)が「道路が遠方まで平坦であれば道路領域である領域」に存在する場合がある(図15(B)の領域84を参照。)。この場合の道路遠方の視差は、道路が遠方まで平坦である場合の視差とは異なる。この差異はU-disparity平面上においても現れ、遠方が下り坂となっている平坦路の場合、図15(C)に示したように、遠方の道路領域に比較的高い輝度を示す領域85が現れる。しかしながら、従来装置はこれらの視差の差異を判別することができず、結果として、障害物が存在する領域(以下、「障害物領域」とも称呼する。)を道路領域と(即ち、下り坂の道路を平坦な道路と)誤検出してしまうという問題があった。この問題は、道路が平坦路から下り坂に変化する場合に限らず、登り坂の勾配を正、下り坂の勾配を負とすれば、道路勾配が減少するすべての場合に当てはまる。   However, for example, when a vehicle is traveling on a flat road with a distant slope on the far side, the distant road area is not visible on the image, and obstacles far away on the road (for example, guardrails and fences) May exist in the “region that is a road region” (see region 84 in FIG. 15B). In this case, the disparity of the road far away is different from the disparity when the road is flat far away. This difference also appears on the U-disparity plane, and in the case of a flat road with a distant slope on the far side, as shown in FIG. 15C, an area 85 showing relatively high luminance is shown on the far road area. appear. However, the conventional apparatus cannot distinguish between these parallax differences, and as a result, an area where an obstacle exists (hereinafter also referred to as an “obstacle area”) is referred to as a road area (that is, a downhill area). There was a problem that the road was mistakenly detected as a flat road. This problem is not limited to the case where the road changes from a flat road to a downhill, but applies to all cases where the road slope decreases if the slope of the uphill is positive and the slope of the downhill is negative.

本発明は上記問題に対処するために為されたものである。即ち、本発明の目的の一つは、車両が現在走行している道路の路面の勾配に対し遠方の路面の勾配が減少する道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができ、以て、障害物を正しく認識することが可能な道路領域検出装置を提供することにある。   The present invention has been made to address the above problems. That is, one of the objects of the present invention is to erroneously detect an obstacle area far from the road as a road area on a road where the slope of the road far away from the road slope of the road on which the vehicle is currently traveling decreases. Therefore, an object of the present invention is to provide a road area detection device that can correct the range of the road area to the original range and thus can correctly recognize an obstacle.

そこで、本発明の道路領域検出装置(以下、「本発明装置」とも称呼する。)は、
画像取得手段(20)と、視差画像作成手段と、V−視差平面作成手段と、道路モデル作成手段と、遠方端位置決定手段と、を備える。
Therefore, the road area detection device of the present invention (hereinafter also referred to as “the present device”)
Image acquisition means (20), parallax image creation means, V-parallax plane creation means, road model creation means, and far end position determination means are provided.

前記画像取得手段は、何れもが車両前方の路面を撮影する左カメラ(20L)及び右カメラ(20R)によりステレオ画像を取得する(ステップ310)。   The image acquisition means acquires a stereo image by the left camera (20L) and the right camera (20R), both of which capture the road surface ahead of the vehicle (step 310).

前記視差画像作成手段は、前記ステレオ画像から同ステレオ画像上の各点の視差値を算出するとともに同視差値を同ステレオ画像と同じV座標軸及びU座標軸を有する画像上に配置した視差画像(40)を作成する(ステップ320)。   The parallax image creation means calculates a parallax value of each point on the stereo image from the stereo image, and arranges the parallax value on an image having the same V coordinate axis and U coordinate axis as the stereo image (40 ) Is created (step 320).

前記V−視差平面作成手段は、前記視差画像を、前記視差画像の縦軸であるV座標軸と平行な複数の仮想線(43)によって細分割して複数の微小区間(dU)を得るとともに、前記複数の微小区間のそれぞれの視差値を、前記視差画像のV座標軸を縦軸として有し前記微小区間のそれぞれの視差値を横軸として有するV−視差平面へ投影することによって、複数のV−視差平面(50)を作成する(ステップ330)。   The V-parallax plane creating means subdivides the parallax image by a plurality of virtual lines (43) parallel to a V coordinate axis that is a vertical axis of the parallax image to obtain a plurality of minute sections (dU), By projecting each parallax value of the plurality of minute sections onto a V-disparity plane having the V coordinate axis of the parallax image as a vertical axis and the parallax values of the minute sections as a horizontal axis, a plurality of V Create a parallax plane (50) (step 330).

前記道路モデル作成手段は、前記複数のV−視差平面のそれぞれに投影された視差値から主要な直線を道路モデルとして抽出することによって前記複数のV−視差平面のそれぞれに対して道路モデル(53)を作成する(ステップ340)。   The road model creation means extracts a main straight line as a road model from the parallax values projected onto each of the plurality of V-parallax planes, thereby obtaining a road model (53 ) Is created (step 340).

前記遠方端位置決定手段は、前記道路モデルに基づいて前記微小区間のそれぞれの道路領域の遠方端を推定し(ステップ350、図11のルーチン)、前記複数のV−視差平面のそれぞれの各V座標位置において、前記作成された道路モデルの視差値から前記投影された視差値を差し引いた値である視差差分値(Δdisp)を算出する(ステップ1220)。   The far end position determining means estimates the far end of each road area of the minute section based on the road model (step 350, routine of FIG. 11), and each V of the plurality of V-parallax planes. At the coordinate position, a parallax difference value (Δdisp) which is a value obtained by subtracting the projected parallax value from the parallax value of the created road model is calculated (step 1220).

更に、前記遠方端位置決定手段は、前記視差差分値を、前記V座標軸を縦軸として有し同視差差分値を横軸として有するV−視差差分値平面(60)へ投影し、同視差差分値が0となる隣接する2点間に存在する視差差分値の軌跡であって正の値を示す軌跡を一つの波形部(61)として認識する(ステップ360、ステップ1230、ステップ1280)。   Further, the far end position determining means projects the parallax difference value onto a V-parallax difference value plane (60) having the V coordinate axis as a vertical axis and the parallax difference value as a horizontal axis. A trajectory of a parallax difference value existing between two adjacent points having a value of 0 and showing a positive value is recognized as one waveform portion (61) (step 360, step 1230, step 1280).

加えて、前記遠方端位置決定手段は、前記取得したステレオ画像の一方から消失点(96)のV座標位置を算出し(ステップ1310)、前記波形部のうち、前記消失点のV座標位置に最も近い波形部(61a)と前記V座標軸とによって囲まれてなる図形の面積が他の何れの波形部と前記V座標軸とによって囲まれてなる図形の面積よりも大きく、且つ前記消失点のV座標位置に最も近い波形部における最大の視差差分値(ΔdispMAX) が所定の閾値(Δdispth)以上であるという特定条件が成立するか否かを判定する(ステップ370、ステップ1320、ステップ1330)。   In addition, the far end position determining means calculates the V coordinate position of the vanishing point (96) from one of the acquired stereo images (step 1310), and sets the V coordinate position of the vanishing point in the waveform portion. The area of the figure surrounded by the nearest waveform part (61a) and the V coordinate axis is larger than the area of the figure surrounded by any other waveform part and the V coordinate axis, and the vanishing point V It is determined whether or not a specific condition that the maximum parallax difference value (ΔdispMAX) in the waveform portion closest to the coordinate position is equal to or larger than a predetermined threshold (Δdispth) is satisfied (steps 370, 1320, and 1330).

更に、前記遠方端位置決定手段は、前記特定条件が成立しない場合(ステップ1330:No)には前記道路領域の遠方端を前記推定した遠方端に設定し(ステップ1410:No)、前記特定条件が成立する場合(ステップ1330:Yes)には前記道路領域の遠方端を前記消失点のV座標位置に最も近い波形部のV座標位置の最大値(63)に変更する(ステップ1410にて「Yes」と判定、ステップ1420)。   Further, the far end position determining means sets the far end of the road region to the estimated far end (step 1410: No) when the specific condition is not satisfied (step 1330: No), and the specific condition Is established (step 1330: Yes), the far end of the road region is changed to the maximum value (63) of the V coordinate position of the waveform portion closest to the V coordinate position of the vanishing point (in step 1410, “ Yes ", step 1420).

車両が現在走行している路面の勾配に対し遠方の路面の勾配が減少している道路において、V−視差平面上、前記作成される道路モデル(図16(A)中の破線91を参照。)と前記視差値(同図中の実線92を参照。)との差である「視差差分値」は、車両が現在走行している路面においては比較的小さく(同図中の領域93を参照。)、遠方の路面においては比較的大きい(同図中の領域94を参照。)傾向がある。   On a road where the gradient of the road surface far away from the gradient of the road surface on which the vehicle is currently traveling is decreasing, see the road model created above (see the broken line 91 in FIG. 16A). ) And the parallax value (see the solid line 92 in the figure), the “parallax difference value” is relatively small on the road surface on which the vehicle is currently traveling (see the region 93 in the figure). ), There is a tendency to be relatively large (see the region 94 in the figure) on a distant road surface.

一方、例えば、画像上のエッジ(道路の白線及び道路脇のガードレール等)を抽出し、それらのエッジを結ぶ線の延長線が複数あるとき、これらの延長線同士の交点を消失点96と定めると、上記道路の場合、図16(B)に示したように、道路遠方の路面高さ95は、消失点96の高さより低い位置に存在する。   On the other hand, for example, when edges on the image (white road lines, guard rails on the road side, etc.) are extracted and there are a plurality of extension lines connecting these edges, the intersection of these extension lines is defined as the vanishing point 96. In the case of the road, as shown in FIG. 16B, the road surface height 95 far from the road exists at a position lower than the height of the vanishing point 96.

そこで、発明者は「視差差分値が比較的小さい範囲」と「視差差分値が比較的大きい範囲」との境界が本来の道路領域の遠方端(画像平面における道路領域の上端)と略一致することに着目し、「視差差分値が比較的大きい範囲」を特定するための以下の方法を着想した。   Therefore, the inventor found that the boundary between the “range where the parallax difference value is relatively small” and the “range where the parallax difference value is relatively large” substantially coincides with the far end of the original road area (the upper end of the road area on the image plane). Focusing on this, the following method for specifying a “range where the parallax difference value is relatively large” was conceived.

その方法は、先ず、上記得られた視差差分値をV−視差差分値平面に投影して視差差分値が0となる隣接する2点間に存在する視差差分値の軌跡であって正の値を示す軌跡を一つの波形部として認識する。この波形部が複数得られる場合には、消失点のV座標位置に最も近い位置にある波形部が「実際の道路領域と道路モデルによる道路領域との乖離度合い」を表していると推定する。次に、この波形部とV座標軸とによって囲まれてなる図形が所定の大きさ(他の何れの波形部とV座標軸とによって囲まれてなる図形の面積よりも大きく、且つ消失点のV座標位置に最も近い波形部における最大の視差差分値が所定の閾値以上)を有するならば、上記推定が確からしいと判断する。   In the method, first, the obtained parallax difference value is projected onto the V-parallax difference value plane, and the locus of the parallax difference value existing between two adjacent points where the parallax difference value becomes 0 is a positive value. Is recognized as one waveform portion. When a plurality of waveform portions are obtained, it is estimated that the waveform portion closest to the V coordinate position of the vanishing point represents “the degree of deviation between the actual road region and the road region based on the road model”. Next, the figure surrounded by the waveform portion and the V coordinate axis is a predetermined size (larger than the area of the figure surrounded by any other waveform portion and the V coordinate axis, and the vanishing point V coordinate. If the maximum parallax difference value in the waveform portion closest to the position has a predetermined threshold value or more, it is determined that the above estimation is likely.

これにより、本発明装置によれば、視差差分値が比較的大きい範囲を特定し、この視差差分値の範囲に対応する視差差分値の軌跡(波形部)のV座標位置の最大端(画像平面における下端)が本来の道路領域の遠方端(画像平面における上端)であると推定することができる。   Thereby, according to the device of the present invention, a range in which the parallax difference value is relatively large is specified, and the maximum end (image plane) of the locus (waveform portion) of the parallax difference value corresponding to the range of the parallax difference value (image plane) Can be estimated to be the far end of the original road area (the upper end in the image plane).

このように、本発明装置によれば、車両が現在走行している路面の勾配に対し遠方の路面の勾配が減少している道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができる。その結果、本発明方法によれば、障害物を正しく認識することが可能となる。   As described above, according to the device of the present invention, the obstacle area far from the road is erroneously detected as the road area on the road where the slope of the road surface far away from the slope of the road surface on which the vehicle is currently traveling is reduced. The range of the road area can be corrected to the original range. As a result, according to the method of the present invention, an obstacle can be correctly recognized.

上記説明においては、本発明の理解を助けるために、後述する実施形態に対応する発明の構成に対し、その実施形態で用いた名称及び/又は符号を括弧書きで添えている。しかしながら、本発明の各構成要素は、前記符号によって規定される実施形態に限定されるものではない。本発明の他の目的、他の特徴及び付随する利点は、以下の図面を参照しつつ記述される本発明の実施形態についての説明から容易に理解されるであろう。   In the above description, in order to help understanding of the present invention, names and / or symbols used in the embodiment are attached to the configuration of the invention corresponding to the embodiment described later in parentheses. However, each component of the present invention is not limited to the embodiment defined by the reference numerals. Other objects, other features and attendant advantages of the present invention will be readily understood from the description of the embodiments of the present invention described with reference to the following drawings.

図1は、本発明の実施形態に係る道路領域検出装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a road area detection device according to an embodiment of the present invention. 図2は、図1に示したカメラが撮影(取得)するステレオカメラ画像の例である。FIG. 2 is an example of a stereo camera image taken (acquired) by the camera shown in FIG. 図3は、図1に示した道路領域検出装置のCPUが実行する「道路領域検出・修正ルーチン」を示したフローチャートである。FIG. 3 is a flowchart showing a “road area detection / correction routine” executed by the CPU of the road area detection apparatus shown in FIG. 図4は、図1に示した道路領域検出装置が作成する視差画像の例であり、図4(A)は平坦な道路の場合、図4(B)は遠方にて勾配が減少する道路の場合の視差画像の例である。FIG. 4 is an example of a parallax image created by the road area detection apparatus shown in FIG. 1, where FIG. 4A shows a flat road, and FIG. 4B shows a road whose slope decreases at a distance. It is an example of the parallax image in a case. 図5は、図1に示した道路領域検出装置が算出して得られるV−視差平面の例であり、図5(A)は視差画像の例、図5(B)は視差画像中央付近の微小区間に対応するV−視差平面の例、図5(C)は視差画像中央と右端の中間付近の微小区間に対応するV−視差平面の例である。FIG. 5 is an example of a V-parallax plane obtained by calculation by the road area detection apparatus shown in FIG. 1, FIG. 5 (A) is an example of a parallax image, and FIG. 5 (B) is the vicinity of the center of the parallax image. FIG. 5C shows an example of the V-parallax plane corresponding to the minute section near the middle between the center and the right end of the parallax image. 図6は、図1に示した道路領域検出装置が算出して得られるV−視差平面の例であり、遠方で道路の勾配が減少する道路の例を示した図である。FIG. 6 is an example of a V-parallax plane obtained by calculation by the road region detection apparatus shown in FIG. 1, and is a diagram showing an example of a road where the road gradient decreases far away. 図7は、図1に示した道路領域検出装置が行う道路領域の推定方法を説明するための図である。FIG. 7 is a diagram for explaining a road area estimation method performed by the road area detection apparatus shown in FIG. 1. 図8(A)は、図1に示した道路領域検出装置が算出した視差差分値をV−視差差分値平面に投影してできる軌跡(波形部)を説明するための図であり、図8(B)は、波形部と消失点のV座標位置との関係を説明するための図である。FIG. 8A is a diagram for explaining a trajectory (waveform portion) formed by projecting the parallax difference value calculated by the road area detection apparatus shown in FIG. 1 on the V-parallax difference value plane. (B) is a figure for demonstrating the relationship between a waveform part and the V coordinate position of a vanishing point. 図9は、図1に示した道路領域検出装置が行う消失点の算出方法を説明するための図である。FIG. 9 is a diagram for explaining a vanishing point calculation method performed by the road area detection apparatus shown in FIG. 1. 図10は、図1に示した道路領域検出装置が行う道路領域遠方端位置変更方法を説明するための図である。FIG. 10 is a diagram for explaining a road region far end position changing method performed by the road region detection apparatus shown in FIG. 図11は、図1に示した道路領域検出装置のCPUが実行する「道路領域推定ルーチン」を示したフローチャートである。FIG. 11 is a flowchart showing a “road area estimation routine” executed by the CPU of the road area detection apparatus shown in FIG. 図12は、図1に示した道路領域検出装置のCPUが実行する「視差差分値の軌跡(波形部)抽出ルーチン」を示したフローチャートである。FIG. 12 is a flowchart showing a “parallax difference value trajectory (waveform portion) extraction routine” executed by the CPU of the road area detection apparatus shown in FIG. 1. 図13は、図1に示した道路領域検出装置のCPUが実行する「勾配減少有無判定ルーチン」を示したフローチャートである。FIG. 13 is a flowchart showing a “gradient reduction presence / absence determination routine” executed by the CPU of the road area detection apparatus shown in FIG. 図14は、図1に示した道路領域検出装置のCPUが実行する「道路領域遠方端位置変更ルーチン」を示したフローチャートである。FIG. 14 is a flowchart showing a “road region far end position change routine” executed by the CPU of the road region detection apparatus shown in FIG. 図15(A)は、U−視差図の例を、図15(B)は遠方の道路が見えなくなる画像例を、図15(C)は、図15(B)の画像をU−視差図に変換した例をそれぞれ示した図である。15A is an example of a U-disparity diagram, FIG. 15B is an example of an image in which a distant road cannot be seen, and FIG. 15C is an U-disparity diagram of the image of FIG. It is the figure which each showed the example converted into. 図16(A)は、V−視差図の例を示した図であり、図16(B)は、消失点の求め方の例を示した図である。FIG. 16A is a diagram illustrating an example of a V-parallax diagram, and FIG. 16B is a diagram illustrating an example of how to obtain a vanishing point.

以下、図面を参照しながら本発明の実施形態に係る道路領域検出装置(以下、「本検出装置」とも称呼する。)について説明する。   Hereinafter, a road area detection device (hereinafter also referred to as “the detection device”) according to an embodiment of the present invention will be described with reference to the drawings.

(構成)
図1に示したように、本検出装置は、図1に示した車両10に適用される。本検出装置は、カメラ装置20と、電子制御装置30と、を備えている。
(Constitution)
As shown in FIG. 1, this detection apparatus is applied to the vehicle 10 shown in FIG. The present detection device includes a camera device 20 and an electronic control device 30.

カメラ装置20は左右一組のステレオカメラ(左カメラ20L及び右カメラ20R)を備える。カメラ装置20は、左カメラ20L及び右カメラ20Rがインナーリアビューミラー(いわゆるルームミラー)22の両端にそれぞれ位置するように、車体18に固定されている。左カメラ20Lの光軸24Lは、カメラ装置20が車体18に固定された状態において所定の俯角φを有し且つ車体前後方向に一致している。同様に、右カメラ20Rの光軸24Rは、カメラ装置20が車体18に固定された状態において所定の俯角φを有し且つ車体前後方向に一致している。更に、左カメラ20Lの撮像素子の中心及び右カメラ20Rの撮像素子の中心を結ぶ直線は車体18の横幅方向と平行となっている。従って、左カメラ20L及び右カメラ20Rのそれぞれは、車両進行方向(車両前方)の路面を撮像することができるようになっている。なお、左カメラ20L及び右カメラ20Rのそれぞれの撮像素子は、CCD及びCMOS等の固体撮像素子である。   The camera device 20 includes a pair of left and right stereo cameras (a left camera 20L and a right camera 20R). The camera device 20 is fixed to the vehicle body 18 so that the left camera 20L and the right camera 20R are positioned at both ends of an inner rear view mirror (so-called room mirror) 22, respectively. The optical axis 24L of the left camera 20L has a predetermined depression angle φ in the state where the camera device 20 is fixed to the vehicle body 18 and coincides with the vehicle body longitudinal direction. Similarly, the optical axis 24R of the right camera 20R has a predetermined depression angle φ when the camera device 20 is fixed to the vehicle body 18 and coincides with the vehicle body longitudinal direction. Furthermore, a straight line connecting the center of the image sensor of the left camera 20L and the center of the image sensor of the right camera 20R is parallel to the lateral width direction of the vehicle body 18. Accordingly, each of the left camera 20L and the right camera 20R can capture a road surface in the vehicle traveling direction (vehicle front). Note that the imaging devices of the left camera 20L and the right camera 20R are solid-state imaging devices such as a CCD and a CMOS.

より具体的に述べると、左カメラ20L及び右カメラ20Rのそれぞれは、電子制御装置30と電気的に接続され、電子制御装置30からの指示に従って、車両10から前方に所定距離だけ離間した位置から遠方の位置までの路面を撮像することができる。左カメラ20L及び右カメラ20Rにより撮像された画像は、図2に示したような左右一組の画像を構成する。この一組の画像は、以下、「ステレオ画像」とも称呼する。   More specifically, each of the left camera 20L and the right camera 20R is electrically connected to the electronic control unit 30 and is separated from the vehicle 10 by a predetermined distance forward according to an instruction from the electronic control unit 30. The road surface to a distant position can be imaged. The images captured by the left camera 20L and the right camera 20R constitute a pair of left and right images as shown in FIG. Hereinafter, this set of images is also referred to as a “stereo image”.

電子制御装置(ECU)30は周知のマイクロコンピュータを含む電子回路であり、CPU、ROM、RAM及びインタフェースI/F等を含む。ECUは、エレクトリックコントロールユニットの略称である。CPUは、メモリ(ROM)に格納されたインストラクション(ルーチン)を実行することにより後述する各種機能を実現する。   The electronic control unit (ECU) 30 is an electronic circuit including a known microcomputer, and includes a CPU, a ROM, a RAM, an interface I / F, and the like. ECU is an abbreviation for electric control unit. The CPU implements various functions to be described later by executing instructions (routines) stored in a memory (ROM).

(作動)
次に、本検出装置の作動について説明する。
(Operation)
Next, the operation of this detection apparatus will be described.

<全体フロー>
電子制御装置30のCPUは、一定時間(例えば、100ms)が経過する毎に図3にフローチャートにより示した「道路領域検出・修正ルーチン」を実行するようになっている。従って、CPUは所定のタイミングにてステップ300から処理を開始して以下に述べるステップ310乃至ステップ380の処理を順に実行してステップ395に進み、本ルーチンを一旦終了する。
<Overall flow>
The CPU of the electronic control unit 30 executes a “road area detection / correction routine” shown by a flowchart in FIG. 3 every time a predetermined time (for example, 100 ms) elapses. Accordingly, the CPU starts the process from step 300 at a predetermined timing, sequentially executes the processes of steps 310 to 380 described below, proceeds to step 395, and once ends this routine.

ステップ310:CPUは、カメラ装置20に撮像を行わせ、それにより得られた一組の画像(即ち、ステレオ画像)を受け取る。   Step 310: The CPU causes the camera device 20 to take an image and receives a set of images (that is, a stereo image) obtained thereby.

ステップ320:CPUは、受け取った一組の画像から視差画像を作成する。   Step 320: The CPU creates a parallax image from the received set of images.

より具体的に述べると、CPUは、先ず、受け取った一組の画像に基づいて、周知のステレオマッチング法の一つであるブロックマッチング法により視差を算出する。即ち、CPUは、受け取った一組の画像のうちの一方の画像(例えば、右カメラ20Rにより撮影された画像(右画像))を小面積の正方形又は長方形の領域に分割し、分割した各領域に撮影されている物標が他方の画像(例えば、左カメラ20Lにより撮影された画像(左画像))の対応する領域において撮影されている位置を決定し、その位置に基づいて右画像及び左画像の間の位置ずれ量を視差として算出する。例えば、図2に示したように、路側に設置された標識M1のx座標位置は、右画像においてx1、左画像において(x1+d)となる。従って、視差はこれらの水平方向(x軸方向)の差分(位置のずれ)dである。   More specifically, the CPU first calculates a parallax based on a received set of images by a block matching method which is one of well-known stereo matching methods. That is, the CPU divides one image (for example, an image (right image) taken by the right camera 20R) of the received set of images into small square or rectangular areas, and each divided area. The position where the target being photographed is photographed in the corresponding region of the other image (for example, the image photographed by the left camera 20L (left image)) is determined, and the right image and the left are determined based on the position. The amount of positional deviation between images is calculated as parallax. For example, as shown in FIG. 2, the x coordinate position of the sign M1 installed on the road side is x1 in the right image and (x1 + d) in the left image. Accordingly, the parallax is a difference (positional deviation) d in the horizontal direction (x-axis direction).

次に、CPUは、この算出した視差を用いて視差画像を作成する。視差画像は、横軸がU座標軸であり縦軸がV座標軸であるU−V平面の画像であって、各(U,V)座標における視差が輝度(階調)により表現された画像である。   Next, the CPU creates a parallax image using the calculated parallax. The parallax image is an image on the U-V plane in which the horizontal axis is the U coordinate axis and the vertical axis is the V coordinate axis, and the parallax image at each (U, V) coordinate is expressed by luminance (gradation). .

図4(A)は、道路が遠方まで平坦である場合に得られる視差画像の例である。この視差画像40において、道路領域41のうち車両10の近傍の領域41aは視差が比較的大きいので明るい画像となり、遠方の領域41bは視差が比較的小さいので暗い画像となる。更に、道路領域41の両端の外側にある領域42は、路側のガードレール及びフェンス等の障害物領域42であり、道路領域41よりも明るく表現されている。これは、同一のV座標位置における道路領域41及び障害物領域42と車両10との距離関係を比べると、障害物領域42の方が車両10に近い傾向があるからである。即ち、同一のV座標位置においては、道路領域41の視差よりも障害物領域42の視差の方が大きくなる傾向があるからである。   FIG. 4A shows an example of a parallax image obtained when the road is flat far away. In the parallax image 40, the area 41a in the vicinity of the vehicle 10 in the road area 41 is a bright image because the parallax is relatively large, and the distant area 41b is a dark image because the parallax is relatively small. Furthermore, an area 42 outside the both ends of the road area 41 is an obstacle area 42 such as a roadside guardrail and a fence, and is expressed brighter than the road area 41. This is because the obstacle region 42 tends to be closer to the vehicle 10 when the distance relationship between the road region 41 and the obstacle region 42 and the vehicle 10 at the same V coordinate position is compared. That is, at the same V coordinate position, the parallax of the obstacle area 42 tends to be larger than the parallax of the road area 41.

これに対し、図4(B)は、道路の勾配が遠方にて減少する場合に得られる視差画像40の例である。道路の勾配が遠方にて減少する場合、道路が画像から消失する地点よりも遠方の領域は視差が非常に小さい。よって、図4(B)の視差画像40においては、道路の勾配の変化点より遠方の領域41cは図4(A)に示した例(41b)よりも暗くなっている。   On the other hand, FIG. 4B is an example of the parallax image 40 obtained when the road gradient decreases far away. When the road gradient decreases far away, the parallax is very small in the area far from the point where the road disappears from the image. Therefore, in the parallax image 40 of FIG. 4B, the region 41c far from the change point of the road gradient is darker than the example (41b) shown in FIG.

ステップ330:CPUは、図5に示したように、ステップ330にて得られた視差画像40からV-disparity平面50を作成する。   Step 330: The CPU creates a V-disparity plane 50 from the parallax image 40 obtained in step 330, as shown in FIG.

より具体的に述べると、CPUは、図5(A)に示したように、ステップ320において作成された視差画像40を「V座標軸(縦軸)と平行な複数の仮想線43」により細分割して、微小区間dUを得る。この微小区間dUの区間幅は3から5画素が適当である。CPUは、更に、その仮想線43により分割された複数の微小区間dU内のそれぞれに存在する視差値を、V−視差平面(以下、「V-disparity平面」とも称呼する。)にそれぞれ投影する。V-disparity平面は、微小区間dUのそれぞれに対する平面であり、その縦軸は視差画像のV座標軸と同じ(即ち、縦軸は視差画像の縦軸と同じ)であり、その横軸は微小区間dU内の視差(disparity)値である。V-disparity平面50に投影された視差値51は、以下、視差点群51とも称呼される。   More specifically, as shown in FIG. 5A, the CPU subdivides the parallax image 40 created in step 320 by “a plurality of virtual lines 43 parallel to the V coordinate axis (vertical axis)”. Thus, a minute interval dU is obtained. The interval width of this minute interval dU is suitably 3 to 5 pixels. The CPU further projects the parallax values existing in each of the plurality of minute sections dU divided by the virtual line 43 onto the V-parallax plane (hereinafter also referred to as “V-disparity plane”). . The V-disparity plane is a plane for each of the minute sections dU, the vertical axis is the same as the V coordinate axis of the parallax image (that is, the vertical axis is the same as the vertical axis of the parallax image), and the horizontal axis is the minute section. This is a disparity value in dU. The parallax value 51 projected on the V-disparity plane 50 is also referred to as a parallax point group 51 hereinafter.

図5(B)に示したV-disparity平面50に対応する微小区間dUには道路遠方まで障害物領域42(ガードレール及びフェンス等)が存在しないので、V-disparity平面50に投影される視差点群51は、視差d0から視差が微小な領域まで略直線状に延在し、その後、視差が略0である領域においてV軸に沿う。これに対し、図5(C)に示したV-disparity平面50に対応する微小区間dUには障害物領域42が存在する。障害物領域42は略一定の視差値を有するので、視差点群はV座標軸と平行な方向に延びる直線52となる。   In the minute section dU corresponding to the V-disparity plane 50 shown in FIG. 5B, there is no obstacle area 42 (guardrail, fence, etc.) far to the road, so that the parallax points projected on the V-disparity plane 50 The group 51 extends substantially linearly from the parallax d0 to the region where the parallax is very small, and then follows the V axis in the region where the parallax is substantially zero. On the other hand, the obstacle region 42 exists in the minute section dU corresponding to the V-disparity plane 50 shown in FIG. Since the obstacle region 42 has a substantially constant parallax value, the parallax point group is a straight line 52 extending in a direction parallel to the V coordinate axis.

更に、遠方にて勾配が減少する道路の場合、図6(A)に示した視差画像40の中央付近の微小区間dUに対するV-disparity平面50において、視差点群51は、道路勾配の変化点において急激にその傾きを変える(図6(B)の点P1を参照。)。これは、道路勾配の変化点より遠方の領域(視差の小さい領域)において、V座標の変化に対する視差の変化が大きくなることによる。   Further, in the case of a road whose gradient decreases far away, the parallax point group 51 is a change point of the road gradient in the V-disparity plane 50 for the minute section dU near the center of the parallax image 40 shown in FIG. The inclination is suddenly changed at (see point P1 in FIG. 6B). This is because the change in the parallax with respect to the change in the V coordinate becomes large in an area far from the change point of the road gradient (an area where the parallax is small).

ステップ340:CPUは、複数のV-disparity平面に投影された視差値に基づいてそれぞれ道路モデルを作成する。   Step 340: The CPU creates a road model based on the parallax values projected on the plurality of V-disparity planes.

より具体的に述べると、CPUは、先ず、各微小区間dUに対応するV-disparity平面50に存在する「主要な直線」を抽出する。「主要な直線」とは、V座標軸と平行な直線を除き、各V-disparity平面50における最も長い直線である。前述したように、V-disparity平面50に投影される道路領域の視差点群51は略直線状となる。この投影された道路領域の視差点群(直線)51は、V-disparity平面50の「最も長い直線」、即ち、「主要な直線」となる。   More specifically, the CPU first extracts “main straight lines” existing on the V-disparity plane 50 corresponding to each minute section dU. The “main straight line” is the longest straight line in each V-disparity plane 50 except for a straight line parallel to the V coordinate axis. As described above, the parallax point group 51 of the road area projected onto the V-disparity plane 50 is substantially linear. The projected parallax point group (straight line) 51 of the road area becomes the “longest straight line” of the V-disparity plane 50, that is, the “main straight line”.

主要な直線の抽出は、例えば、古典的な直線抽出手法であるハフ変換を用いて行われる。ハフ変換は、V-disparity平面50上の視差点群51を近似して得られる直線とV-disparity平面の原点とを結ぶ垂線の長さをρ、垂線とV座標軸とのなす角度をθとして、この近似直線に対応するρ、θの組合せをρ−θ平面(直交座標)に投票する。CPUは、各微小区間dUについてハフ変換によって最も投票値が大きくなるρとθ(ρ−θ平面における一点)をそれぞれ「主要な直線」として抽出する。そして、CPUは抽出したそれぞれの「主要な直線」を「道路モデル」として各微小区間dUのV-disparity平面50上に作成する。   The extraction of the main line is performed using, for example, the Hough transform, which is a classic line extraction method. In the Hough transform, the length of the perpendicular connecting the straight line obtained by approximating the parallax point group 51 on the V-disparity plane 50 and the origin of the V-disparity plane is ρ, and the angle between the perpendicular and the V coordinate axis is θ. Then, the combination of ρ and θ corresponding to the approximate straight line is voted on the ρ-θ plane (orthogonal coordinates). The CPU extracts ρ and θ (one point on the ρ-θ plane) having the largest vote value by the Hough transform for each minute section dU as “main straight lines”. Then, the CPU creates each extracted “main straight line” as a “road model” on the V-disparity plane 50 of each minute section dU.

ステップ350:CPUは、各微小区間dUについて、ステップ340にて作成された道路モデルとステップ330にて算出された(V-disparity平面50に投影された)視差点群51とを比較することにより道路領域を推定する。   Step 350: The CPU compares the road model created in Step 340 with the parallax point group 51 (projected on the V-disparity plane 50) calculated in Step 330 for each minute section dU. Estimate the road area.

より具体的に述べると、図7に示したように、CPUはV-disparity平面50に作成された道路モデル53と視差点群51とを併記する。CPUは、更に、道路モデル53に、視差が大きいほど大きい「高さの閾値ΔVth」を加える(V座標軸上は道路モデル53から「高さの閾値ΔVth」を減算する)ことにより、道路領域判定用閾値Vthを求めて、この閾値Vthを併記する。本例においては、高さの閾値ΔVthは視差に対して線形的に増加する値である。   More specifically, as shown in FIG. 7, the CPU writes the road model 53 and the parallax point group 51 created on the V-disparity plane 50 together. The CPU further adds a “height threshold ΔVth” to the road model 53 that increases as the parallax increases (subtracts the “height threshold ΔVth” from the road model 53 on the V coordinate axis). The threshold value Vth is obtained, and this threshold value Vth is also written. In this example, the height threshold ΔVth is a value that increases linearly with respect to the parallax.

障害物52の上端52aが道路領域判定用閾値Vthを超える場合、CPUは障害物52の下端52bよりも下の領域54を道路領域と推定する。この道路領域判定用閾値Vthは、路側に設置される通常のガードレール及びフェンス等を障害物として認識することができる値に設定されている。   When the upper end 52a of the obstacle 52 exceeds the road area determination threshold value Vth, the CPU estimates the area 54 below the lower end 52b of the obstacle 52 as the road area. The road area determination threshold value Vth is set to a value that allows recognition of normal guardrails, fences, and the like installed on the roadside as obstacles.

ステップ360:CPUは、各微小区間dUに対応するV-disparity平面50の各V座標において、道路モデルの視差値から視差点群51の視差値を差し引いた値である「視差差分値」をそれぞれ算出する。   Step 360: The CPU obtains a “parallax difference value” that is a value obtained by subtracting the parallax value of the parallax point group 51 from the parallax value of the road model at each V coordinate of the V-disparity plane 50 corresponding to each minute section dU. calculate.

より具体的に述べると、例えばV座標軸の上端の座標が0、下端の座標が(j−1)(jは正の整数)である場合、CPUは以下の(1)式に従って各微小区間dUに対応するV-disparity平面の「視差差分値Δdisp(V)」を0から(j−1)まで算出しそれぞれRAMに記憶する。

Δdisp(V) = dispmodel(V) − dispact(V) …(1)

(1)式において、dispmodel(V)は座標Vにおける道路モデルの視差値、dispact(V)は座標Vにおける視差点群51の視差値である。
More specifically, for example, when the coordinates of the upper end of the V coordinate axis are 0 and the coordinates of the lower end are (j−1) (j is a positive integer), the CPU follows each equation (1) below. The “parallax difference value Δdisp (V)” of the V-disparity plane corresponding to is calculated from 0 to (j−1) and stored in the RAM.

Δdisp (V) = dispmodel (V) −dispact (V) (1)

In equation (1), dispmodel (V) is the parallax value of the road model at the coordinate V, and dispense (V) is the parallax value of the parallax point group 51 at the coordinate V.

図8(A)に示したように、CPUは更に、RAMに記憶された座標V毎の視差差分値Δdisp(V)をV−視差差分値平面60に投影して描かれる軌跡のうち視差差分値 Δdisp(V) が「0」となる「互いに隣接する2点」の間の軌跡であって、その値が正の値となる軌跡61を、一つの「波形部」と認識する。   As shown in FIG. 8A, the CPU further calculates a parallax difference among the trajectories drawn by projecting the parallax difference value Δdisp (V) for each coordinate V stored in the RAM onto the V-parallax difference value plane 60. A trajectory 61 between “two adjacent points” having a value Δdisp (V) of “0” and having a positive value is recognized as one “waveform portion”.

ステップ370:CPUは、ステップ310にて入力した画像から消失点の高さ(V座標位置)を算出する。消失点とは、カメラ装置20により撮像された直線道路の画像において、道路の幅が遠くに行くほど小さくなり、やがて一点に収束する点である。   Step 370: The CPU calculates the height (V coordinate position) of the vanishing point from the image input at step 310. The vanishing point is a point in the straight road image captured by the camera device 20 that becomes smaller as the road width goes farther and eventually converges to one point.

例えば、消失点の位置は、周知のエッジ抽出法を用いて算出される。より具体的に述べると、図9に示したように、CPUは左カメラ20Lによる撮像画像における白線、ガードレール及びフェンス等の直線状に連続するエッジ群を複数抽出する。CPUは、それらエッジ群を結んでできる複数の直線の交点を消失点96として算出するとともに消失点の高さ(V座標位置)を求める。なお、消失点96の算出には右カメラ20Rにより撮像された画像が用いられてもよい。左カメラ20Lによる撮像画像と右カメラ20Rによる撮像画像との間において、消失点96のU座標軸方向の座標Uは一致しないが、V座標軸方向の座標Vは一致するからである。   For example, the position of the vanishing point is calculated using a known edge extraction method. More specifically, as shown in FIG. 9, the CPU extracts a plurality of linearly continuous edge groups such as white lines, guard rails, and fences in the image captured by the left camera 20L. The CPU calculates an intersection of a plurality of straight lines formed by connecting these edge groups as a vanishing point 96 and obtains the vanishing point height (V coordinate position). Note that an image captured by the right camera 20R may be used to calculate the vanishing point 96. This is because the coordinate U in the U coordinate axis direction of the vanishing point 96 does not match between the captured image by the left camera 20L and the captured image by the right camera 20R, but the coordinate V in the V coordinate axis direction matches.

次に、CPUは、図8(B)に示したようにステップ360にて算出された各微小区間dUにおける「視差差分値の軌跡(波形部)61」を用いて、遠方の道路勾配が車両近傍の道路勾配に対して減少しているか否か(道路勾配の減少有無)を判定する。   Next, as shown in FIG. 8B, the CPU uses the “parallax difference value trajectory (waveform portion) 61” in each minute section dU calculated in step 360 as shown in FIG. It is determined whether or not it is decreasing with respect to a nearby road gradient (whether or not the road gradient is decreased).

より具体的に述べると、CPUは、波形部61を視差差分値Δdisp(V)が「0」から正の値となり次いで再び「0」になるまでの波形部(61a、61b、61c、…)に区分し、その波形部において消失点96のV座標位置62に最も近い波形部を抽出する。本例において、消失点96のV座標位置62に最も近い波形部は61aである。本例のように波形部61が複数得られる場合には、消失点96のV座標位置62に最も近い位置にある波形部が「実際の道路領域と道路モデルによる道路領域との乖離度合い」を表していると推定される。   More specifically, the CPU sets the waveform portion 61 until the parallax difference value Δdisp (V) changes from “0” to a positive value and then becomes “0” again (61a, 61b, 61c,...). And the waveform portion closest to the V coordinate position 62 of the vanishing point 96 is extracted from the waveform portion. In this example, the waveform portion closest to the V coordinate position 62 of the vanishing point 96 is 61a. When a plurality of waveform portions 61 are obtained as in this example, the waveform portion closest to the V coordinate position 62 of the vanishing point 96 indicates the “degree of divergence between the actual road region and the road region based on the road model”. Presumed to represent.

次に、CPUは波形部61aが以下の2つの条件を同時に満たすか否かを判定する。CPUは、波形部61aが以下の2つの条件を同時に満たすならば、上記推定が確からしいと判断する。
(条件1)波形部61とV座標軸とによって囲まれてなる図形の面積が他の何れの波形部とV座標軸とによって囲まれてなる図形の面積よりも大きい。
(条件2)視差差分値の軌跡61における最大の視差差分値ΔdispMAX が所定の閾値Δdispth以上である。
Next, the CPU determines whether or not the waveform unit 61a satisfies the following two conditions simultaneously. The CPU determines that the above estimation is likely if the waveform section 61a satisfies the following two conditions simultaneously.
(Condition 1) The area of the figure surrounded by the waveform portion 61 and the V coordinate axis is larger than the area of the figure surrounded by any other waveform portion and the V coordinate axis.
(Condition 2) The maximum parallax difference value ΔdispMAX in the parallax difference value locus 61 is equal to or greater than a predetermined threshold value Δdispth.

本例の視差差分値の波形部61aは上記の条件1及び条件2の何れも満たす。従って、CPUは遠方にて道路勾配が減少していると判定する。これらの条件は、視差差分値の軌跡61が視差算出時のノイズによって生じる場合と、遠方の道路勾配が車両近傍の道路勾配に対して減少していることによって得られる場合と、を区別するために設定される。   The parallax difference value waveform portion 61a of this example satisfies both of the above conditions 1 and 2. Therefore, the CPU determines that the road gradient is decreasing far away. These conditions are for distinguishing between the case where the trajectory 61 of the parallax difference value is generated due to noise at the time of parallax calculation and the case where the distant road gradient is obtained with respect to the road gradient near the vehicle. Set to

ステップ380:CPUは、ステップ370にて遠方にて道路勾配が減少していると判定したときは、図10に示したように、ステップ350にて道路モデル53から推定した道路領域の上端(即ち、道路の遠方端)62を、視差差分値の軌跡61aのV座標位置の最大端63に変更する。この最大端63は、V-disparity平面上、道路モデル53と視差点群51とが離間し始める点P2に相当する。   Step 380: When the CPU determines in step 370 that the road gradient is decreasing far away, as shown in FIG. 10, the upper end of the road area estimated from the road model 53 in step 350 (ie, as shown in FIG. 10) , The far end of the road) 62 is changed to the maximum end 63 of the V coordinate position of the locus 61a of the parallax difference value. The maximum end 63 corresponds to a point P2 at which the road model 53 and the parallax point group 51 start to separate on the V-disparity plane.

以下、上記ステップ350、ステップ360、ステップ370及びステップ380の具体的な作動を説明する。   Hereinafter, specific operations of Step 350, Step 360, Step 370, and Step 380 will be described.

<道路領域推定ルーチン>
CPUはステップ350に進むと、図11にフローチャートにより示した「道路領域推定ルーチン」を実行するようになっている。従って、CPUはステップ1100を経由してステップ1110に進み、V-disparity平面に、抽出された道路モデル53を当てはめる(図7を参照。)。
<Road area estimation routine>
When the CPU proceeds to step 350, the CPU executes a “road area estimation routine” shown by the flowchart in FIG. Accordingly, the CPU proceeds to step 1110 via step 1100, and applies the extracted road model 53 to the V-disparity plane (see FIG. 7).

次いで、CPUはステップ1120に進み、図7に示したように、高さの閾値ΔVthを道路モデル53に加え、道路領域判定用閾値Vthを算出してステップ1130に進み、道路領域判定用閾値Vthを超える視差値(視差点群51)があるか否かを判定する。道路領域判定用閾値Vthを超える視差値がある場合、CPUはステップ1130にて「Yes」と判定してステップ1140に進み、その視差値を有する部分のV座標の最大値(即ち、障害物52の下端52b)よりもV座標が大きい領域54(図7における下端52bよりも下の領域54)を道路領域と推定してステップ1195に進んで図3のステップ360に進む。   Next, the CPU proceeds to step 1120, adds the height threshold value ΔVth to the road model 53, calculates the road area determination threshold value Vth, as shown in FIG. 7, and proceeds to step 1130, where the road area determination threshold value Vth. It is determined whether there is a parallax value (parallax point group 51) exceeding. If there is a parallax value exceeding the road area determination threshold Vth, the CPU makes a “Yes” determination at step 1130 to proceed to step 1140, and the maximum value of the V coordinate of the portion having the parallax value (that is, the obstacle 52 The region 54 (region 54 below the lower end 52b in FIG. 7) having a larger V coordinate than the lower end 52b) is estimated as a road region, and the process proceeds to step 1195 to proceed to step 360 in FIG.

これに対し、道路領域判定用閾値Vthを超える視差点群51が無い場合、CPUはステップ1130にて「No」と判定してステップ1150に進み、道路モデル53とV座標軸との交点P3よりも下の(V座標が大きい)領域を道路領域と推定してステップ1195に進んで図3のステップ360に進む。   On the other hand, if there is no parallax point group 51 exceeding the road area determination threshold Vth, the CPU makes a “No” determination at step 1130 to proceed to step 1150, where the CPU 11 determines that the intersection P3 between the road model 53 and the V coordinate axis The lower area (V coordinate is large) is estimated as a road area, and the process proceeds to Step 1195 to proceed to Step 360 in FIG.

<視差差分値の軌跡(波形部)抽出ルーチン>
CPUはステップ360に進むと、図12にフローチャートにより示した「視差差分値の軌跡算出ルーチン」を実行するようになっている。従って、CPUはステップ1200を経由してステップ1210に進み、座標Vの値を「0」に設定してステップ1220に進み、前述した(1)式に従って視差差分値Δdisp(V)を算出する。
<Parallax difference value locus (waveform portion) extraction routine>
When the CPU proceeds to step 360, the CPU executes a “parallax difference value locus calculation routine” shown by the flowchart in FIG. Accordingly, the CPU proceeds to step 1210 via step 1200, sets the value of the coordinate V to “0”, proceeds to step 1220, and calculates the parallax difference value Δdisp (V) according to the above-described equation (1).

次いで、CPUはステップ1230に進み、視差差分値Δdisp(V)が「0」よりも大きいか否かを判定する。視差差分値Δdisp(V)が「0」よりも大きい場合、CPUはステップ1230にて「Yes」と判定してステップ1240に進み、視差差分値Δdisp(V)をRAMに記憶する。これに対し、視差差分値Δdisp(V)が「0」以下(負の値も含む)の場合、CPUはステップ1230にて「No」と判定してステップ1270に進んで視差差分値の値を「0」に設定してステップ1240に進み、ECU30内のRAMに、算出された視差差分値Δdisp(V)を記憶する。   Next, the CPU proceeds to step 1230 to determine whether or not the parallax difference value Δdisp (V) is larger than “0”. When the parallax difference value Δdisp (V) is larger than “0”, the CPU makes a “Yes” determination at step 1230 to proceed to step 1240 to store the parallax difference value Δdisp (V) in the RAM. On the other hand, when the parallax difference value Δdisp (V) is “0” or less (including a negative value), the CPU makes a “No” determination at step 1230 to proceed to step 1270 to set the value of the parallax difference value. Set to “0” and proceed to step 1240 to store the calculated parallax difference value Δdisp (V) in the RAM in the ECU 30.

次いで、CPUはステップ1250にて座標Vの値を1つインクリメントしてステップ1260に進み、座標Vの値が(j−1)以上であるか否かを判定する。座標Vの値が(j−1)以上である場合、CPUはステップ1260にて「Yes」と判定してステップ1280に進む。座標Vの値が(j−1)未満の場合、CPUはステップ1260にて「No」と判定してステップ1220に進み、ステップ1220乃至ステップ1250及びステップ1270の処理を実行してステップ1260に進む。即ち、CPUは本ルーチンをV座標の値0から開始して、座標Vの値が(j−1)となるまで本ルーチンの処理を繰り返す。   Next, the CPU increments the value of the coordinate V by 1 in step 1250 and proceeds to step 1260 to determine whether or not the value of the coordinate V is equal to or greater than (j−1). If the value of the coordinate V is equal to or greater than (j−1), the CPU makes a “Yes” determination at step 1260 to proceed to step 1280. If the value of the coordinate V is less than (j−1), the CPU makes a “No” determination at step 1260 to proceed to step 1220, execute the processing of step 1220 to step 1250 and step 1270, and then proceed to step 1260. . That is, the CPU starts this routine from the value 0 of the V coordinate and repeats the processing of this routine until the value of the coordinate V becomes (j−1).

次いで、CPUはステップ1280に進むと視差差分値Δdisp(V)を、V座標軸を縦軸とし視差差分値Δdispを横軸とするV−視差差分値平面(V-Δdisp平面) 60へ投影し、視差差分値の軌跡(波形部)61を抽出した後、ステップ1295を経由して図3のステップ370に進む。   Next, the CPU proceeds to step 1280 to project the parallax difference value Δdisp (V) onto a V-parallax difference value plane (V-Δdisp plane) 60 having the V coordinate axis as the vertical axis and the parallax difference value Δdisp as the horizontal axis. After extracting the locus (waveform portion) 61 of the parallax difference value, the process proceeds to step 370 in FIG.

<勾配減少有無判定ルーチン>
CPUはステップ370に進むと、図13にフローチャートにより示した「勾配減少有無判定ルーチン」を実行するようになっている。従って、CPUはステップ1300を経由してステップ1310に進み、カメラ装置20が取得した画像から消失点の高さ(V座標位置)を算出する。
<Slope decrease presence / absence determination routine>
When the CPU proceeds to step 370, the CPU executes a “gradient reduction presence / absence determination routine” shown by the flowchart in FIG. 13. Therefore, the CPU proceeds to step 1310 via step 1300 and calculates the vanishing point height (V coordinate position) from the image acquired by the camera device 20.

次いで、CPUはステップ1320に進み、図8(B)に示したように、「消失点の高さ62に最も近い視差差分値の波形部(軌跡)61a」を抽出する。換言すると、CPUはステップ1280にて複数の視差差分値の軌跡61が得られた場合、これらの中から「消失点の高さ62に最も近い視差差分値の波形部61a」を選択する。   Next, the CPU proceeds to step 1320 to extract “the waveform portion (trajectory) 61a of the parallax difference value closest to the vanishing point height 62” as shown in FIG. 8B. In other words, when a plurality of parallax difference value trajectories 61 are obtained in step 1280, the CPU selects the “parallax difference value waveform portion 61a closest to the vanishing point height 62” from these.

次いで、CPUはステップ1330に進み、特定条件が成立するか否か、即ち、ステップ1320において抽出された「波形部61a」が、前述した2つの条件(条件1及び条件2)を同時に満足するか否かを判定する。   Next, the CPU proceeds to step 1330 to determine whether or not a specific condition is satisfied, that is, whether or not the “waveform portion 61a” extracted in step 1320 satisfies the above two conditions (condition 1 and condition 2) simultaneously. Determine whether or not.

前述した2つの条件が同時に成立する場合、CPUはステップ1330にて「Yes」と判定してステップ1340に進み、道路勾配減少フラグXdkg の値を「1」に設定して(道路勾配が減少していると判断して)ステップ1395に進む。一方、前述した2つの条件のうち何れかが成立しない場合、CPUはステップ1330にて「No」と判定してステップ1350に進み、道路勾配減少フラグXdkg の値を「0」に設定して(道路勾配が減少していないと判断して)ステップ1395に進む。その後、CPUはステップ1395を経由して図3のステップ380に進む。   When the two conditions described above are satisfied at the same time, the CPU makes a “Yes” determination at step 1330 to proceed to step 1340 to set the value of the road gradient decrease flag Xdkg to “1” (the road gradient decreases). The process proceeds to step 1395. On the other hand, if either of the two conditions described above is not satisfied, the CPU makes a “No” determination at step 1330 to proceed to step 1350 to set the value of the road gradient decrease flag Xdkg to “0” ( Proceed to step 1395 (deciding that the road gradient has not decreased). Thereafter, the CPU proceeds to step 380 in FIG.

<道路領域遠方端位置変更ルーチン>
CPUはステップ380に進むと、図14にフローチャートにより示した「道路領域遠方端位置変更ルーチン」を実行するようになっている。従って、CPUはステップ1200を経由してステップ1410に進み、道路勾配減少フラグXdkg の値が「1」であるか否かを判定する。
<Road area far end position change routine>
When the CPU proceeds to step 380, the CPU executes a "road area far end position changing routine" shown by a flowchart in FIG. Therefore, the CPU proceeds to step 1410 via step 1200 and determines whether or not the value of the road gradient decrease flag Xdkg is “1”.

CPUが図13のステップ1340を経由していた(勾配減少ありと判定した)場合、道路勾配減少フラグXdkg の値は「1」となっている。従って、CPUはステップ1410にて「Yes」と判定してステップ1420に進み、「ステップ350にて推定した道路領域の上端(遠方端)62を消失点に最も近い視差差分値の波形部(軌跡)61aの下端(V座標位置の最大端)の高さ63に修正」するとともに道路勾配減少フラグXdkg の値を「0」に設定してステップ1495に進み、その後、図3のステップ395に進む。これに対し、CPUが図13のステップ1350を経由していた(勾配減少なしと判定した)場合、道路勾配減少フラグXdkg の値は「0」となっている。従って、CPUはステップ1410にて「No」と判定してステップ1495に直接進み、その後、図3のステップ395に進む。即ち、ステップ350にて推定された道路領域の変更は行われない。   When the CPU has passed through step 1340 in FIG. 13 (determined that there is a gradient decrease), the value of the road gradient decrease flag Xdkg is “1”. Accordingly, the CPU makes a “Yes” determination at step 1410 to proceed to step 1420, where “the waveform portion (trajectory of the parallax difference value closest to the vanishing point is located at the upper end (far end) 62 of the road region estimated at step 350. ) “Corrected to the height 63 of the lower end of 61a (the maximum end of the V coordinate position)” and set the value of the road gradient decrease flag Xdkg to “0” and proceed to step 1495, and then proceed to step 395 in FIG. . On the other hand, when the CPU has passed through step 1350 in FIG. 13 (determined that there is no gradient decrease), the value of the road gradient decrease flag Xdkg is “0”. Accordingly, the CPU makes a “No” determination at step 1410 to directly proceed to step 1495, and then proceeds to step 395 in FIG. That is, the road area estimated in step 350 is not changed.

以上、説明したように、本検出装置は、視差画像の微小区間に対応する複数のV-disparity平面(V−視差平面)50に投影された視差値に基づいてそれぞれ道路モデル53を作成し、この道路モデルに基づいて微小区間における道路領域の遠方端をそれぞれ推定する。   As described above, the detection apparatus creates the road models 53 based on the parallax values projected on the plurality of V-disparity planes (V-disparity planes) 50 corresponding to the minute sections of the parallax image, Based on this road model, the far end of the road area in the minute section is estimated.

更に、本検出装置は、V-disparity平面50の各V座標位置において、作成された道路モデル53の視差値から投影された視差値51を差し引いた値である「視差差分値Δdisp」を算出するとともに、視差差分値Δdispを、V座標軸を縦軸とし視差差分値Δdispを横軸とするV−視差差分値平面60へ投影し、
視差差分値Δdisp(V)が「0」となる隣接する2点間に存在する視差差分値Δdisp(V)の軌跡であって正の値を示す軌跡を1つの波形部61として認識する。
Further, the detection apparatus calculates “parallax difference value Δdisp” that is a value obtained by subtracting the projected parallax value 51 from the parallax value of the created road model 53 at each V coordinate position of the V-disparity plane 50. In addition, the parallax difference value Δdisp is projected onto the V-parallax difference value plane 60 with the V coordinate axis as the vertical axis and the parallax difference value Δdisp as the horizontal axis,
A trajectory of a parallax difference value Δdisp (V) existing between two adjacent points where the parallax difference value Δdisp (V) is “0” and showing a positive value is recognized as one waveform unit 61.

加えて、本検出装置は、取得した画像から消失点96のV座標位置を算出し、波形部61のうち消失点96のV座標位置に最も近い波形部61aとV座標軸とによって囲まれてなる図形の面積が、他の何れの波形部とV座標とによって囲まれてなる図形の面積よりも大きく(すべての区間における図形の面積の中で最も大きな面積を有し、)且つ消失点96のV座標位置に最も近い波形部61aにおける最大の視差差分値ΔdispMAX が所定の閾値以上であるときは、道路領域の遠方端62を消失点のV座標位置に最も近い波形部61aのV座標位置の最大端側63に変更する。   In addition, the present detection apparatus calculates the V coordinate position of the vanishing point 96 from the acquired image, and is surrounded by the waveform portion 61a closest to the V coordinate position of the vanishing point 96 in the waveform portion 61 and the V coordinate axis. The area of the figure is larger than the area of the figure surrounded by any other waveform portion and the V coordinate (having the largest area among the areas of the figures in all the sections), and the vanishing point 96 When the maximum parallax difference value ΔdispMAX in the waveform portion 61a closest to the V coordinate position is equal to or greater than a predetermined threshold, the far end 62 of the road region is the V coordinate position of the waveform portion 61a closest to the V coordinate position of the vanishing point. Change to the maximum end side 63.

従って、本検出装置によれば、車両が現在走行している路面の勾配に対し遠方の路面の勾配が減少している道路において、道路遠方の障害物領域を道路領域と誤検出することなく、道路領域の範囲を本来の範囲に修正することができ、その結果、障害物を正しく認識することができる。   Therefore, according to the present detection apparatus, in the road where the gradient of the road surface far away from the gradient of the road surface on which the vehicle is currently traveling is reduced, an obstacle region far from the road is not erroneously detected as a road region, The range of the road area can be corrected to the original range, and as a result, the obstacle can be recognized correctly.

本発明は上記実施形態に限定されることはなく、本発明の範囲内において種々の変形例を採用することができる。例えば、視差の計算はブロックマッチング法により行われていたが、セミグローバルマッチング(SGM)法その他の手法により行われてもよい。   The present invention is not limited to the above embodiment, and various modifications can be employed within the scope of the present invention. For example, the parallax calculation is performed by the block matching method, but may be performed by a semi-global matching (SGM) method or other methods.

10…車両、20…カメラ装置、30…電子制御装置(ECU)、40…視差画像、41…道路領域、42…障害物領域、50…V−視差平面、51…視差値(視差点群)、53…道路モデル、60…V−視差差分値平面、61…視差差分値の軌跡、96…消失点。 DESCRIPTION OF SYMBOLS 10 ... Vehicle, 20 ... Camera apparatus, 30 ... Electronic control unit (ECU), 40 ... Parallax image, 41 ... Road area, 42 ... Obstacle area, 50 ... V-parallax plane, 51 ... Parallax value (parallax point group) 53 ... Road model, 60 ... V-parallax difference value plane, 61 ... Trajectory of parallax difference value, 96 ... Vanishing point.

Claims (1)

何れもが車両前方の路面を撮影する左カメラ及び右カメラによりステレオ画像を取得する画像取得手段と、
前記ステレオ画像から同ステレオ画像上の各点の視差値を算出するとともに同視差値を同ステレオ画像と同じV座標軸及びU座標軸を有する画像上に配置した視差画像を作成する視差画像作成手段と、
前記視差画像を、前記視差画像の縦軸であるV座標軸と平行な複数の仮想線によって細分割して複数の微小区間を得るとともに、前記複数の微小区間のそれぞれの視差値を、前記視差画像のV座標軸を縦軸として有し前記微小区間のそれぞれの視差値を横軸として有するV−視差平面へ投影することによって、複数のV−視差平面を作成するV−視差平面作成手段と、
前記複数のV−視差平面のそれぞれに投影された視差値から主要な直線を道路モデルとして抽出することによって前記複数のV−視差平面のそれぞれに対して道路モデルを作成する道路モデル作成手段と、
前記道路モデルに基づいて前記微小区間のそれぞれの道路領域の遠方端を推定し、
前記複数のV−視差平面のそれぞれの各V座標位置において、前記作成された道路モデルの視差値から前記投影された視差値を差し引いた値である視差差分値を算出し、
前記視差差分値を、前記V座標軸を縦軸として有し同視差差分値を横軸として有するV−視差差分値平面へ投影し、同視差差分値が0となる隣接する2点間に存在する視差差分値の軌跡であって正の値を示す軌跡を一つの波形部として認識し、
前記取得したステレオ画像の一方から消失点のV座標位置を算出し、
前記波形部のうち、前記消失点のV座標位置に最も近い波形部と前記V座標軸とによって囲まれてなる図形の面積が他の何れの波形部と前記V座標軸とによって囲まれてなる図形の面積よりも大きく、且つ前記消失点のV座標位置に最も近い波形部における最大の視差差分値が所定の閾値以上であるという特定条件が成立するか否かを判定し、
前記特定条件が成立しない場合には前記道路領域の遠方端を前記推定した遠方端に設定し、
前記特定条件が成立する場合には前記道路領域の遠方端を前記消失点のV座標位置に最も近い波形部のV座標位置の最大値に変更する、遠方端位置決定手段と、
を備える道路領域検出装置。
Image acquisition means for acquiring a stereo image by the left camera and the right camera, both of which capture the road surface in front of the vehicle,
Parallax image creating means for calculating a parallax value of each point on the stereo image from the stereo image and creating a parallax image in which the parallax value is arranged on an image having the same V coordinate axis and U coordinate axis as the stereo image;
The parallax image is subdivided by a plurality of virtual lines parallel to the V coordinate axis that is the vertical axis of the parallax image to obtain a plurality of minute sections, and the parallax values of the plurality of minute sections are obtained as the parallax images. V-parallax plane creating means for creating a plurality of V-parallax planes by projecting onto a V-parallax plane having the V-coordinate axis of
Road model creating means for creating a road model for each of the plurality of V-parallax planes by extracting a main straight line as a road model from the parallax values projected on each of the plurality of V-parallax planes;
Estimating the far end of each road area of the minute section based on the road model,
A parallax difference value that is a value obtained by subtracting the projected parallax value from the parallax value of the created road model at each V coordinate position of each of the plurality of V-parallax planes;
The parallax difference value is projected on a V-parallax difference value plane having the V coordinate axis as the vertical axis and the parallax difference value as the horizontal axis, and exists between two adjacent points where the parallax difference value is 0. Recognizing a trajectory of a parallax difference value and showing a positive value as one waveform part,
Calculate the V coordinate position of the vanishing point from one of the acquired stereo images,
Of the waveform portion, the area of the figure surrounded by the waveform portion closest to the V coordinate position of the vanishing point and the V coordinate axis is the figure surrounded by any other waveform portion and the V coordinate axis. Determining whether or not a specific condition is satisfied that the maximum parallax difference value in the waveform portion that is larger than the area and closest to the V coordinate position of the vanishing point is equal to or greater than a predetermined threshold;
If the specific condition is not satisfied, set the far end of the road area to the estimated far end,
A far end position determining means for changing the far end of the road region to the maximum value of the V coordinate position of the waveform portion closest to the V coordinate position of the vanishing point when the specific condition is satisfied;
A road area detection device comprising:
JP2016039273A 2016-03-01 2016-03-01 Road region detection device Pending JP2017156965A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039273A JP2017156965A (en) 2016-03-01 2016-03-01 Road region detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039273A JP2017156965A (en) 2016-03-01 2016-03-01 Road region detection device

Publications (1)

Publication Number Publication Date
JP2017156965A true JP2017156965A (en) 2017-09-07

Family

ID=59809814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039273A Pending JP2017156965A (en) 2016-03-01 2016-03-01 Road region detection device

Country Status (1)

Country Link
JP (1) JP2017156965A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062153B2 (en) 2018-10-15 2021-07-13 Samsung Electronics Co., Ltd. Apparatus and method for converting image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062153B2 (en) 2018-10-15 2021-07-13 Samsung Electronics Co., Ltd. Apparatus and method for converting image

Similar Documents

Publication Publication Date Title
US9536155B2 (en) Marking line detection system and marking line detection method of a distant road surface area
US8259174B2 (en) Camera auto-calibration by horizon estimation
RU2568777C2 (en) Device to detect moving bodies and system to detect moving bodies
US10871565B2 (en) Object detection apparatus and object detection method
JP6158779B2 (en) Image processing device
US20150262365A1 (en) Image processing device and image processing method
US9898669B2 (en) Traveling road surface detection device and traveling road surface detection method
WO2014104183A1 (en) Boundary recognition device and branch assessment device
US20180005073A1 (en) Road recognition apparatus
US9489585B2 (en) Lane mark recognition device
JP6087858B2 (en) Traveling lane marking recognition device and traveling lane marking recognition program
US20150243169A1 (en) Traffic lane situation determining device and method for determining traffic lane situation
US9508000B2 (en) Object recognition apparatus
JP2009169847A (en) Vehicle exterior monitoring device
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
US9916672B2 (en) Branching and merging determination apparatus
JP5805619B2 (en) Boundary line recognition device
JP2016018521A (en) Travel zone line recognition device and program
US10102628B2 (en) Object recognizing apparatus and haze determination method
US10953885B2 (en) Road surface detecting apparatus
KR101603293B1 (en) Lane recognition method
US10906540B2 (en) Vehicle control apparatus
JP2017156965A (en) Road region detection device
US20190188497A1 (en) Apparatus for identifying line marking on road surface
JP6132808B2 (en) Recognition device