JP6313081B2 - In-vehicle image processing apparatus and vehicle system using the same - Google Patents
In-vehicle image processing apparatus and vehicle system using the same Download PDFInfo
- Publication number
- JP6313081B2 JP6313081B2 JP2014057391A JP2014057391A JP6313081B2 JP 6313081 B2 JP6313081 B2 JP 6313081B2 JP 2014057391 A JP2014057391 A JP 2014057391A JP 2014057391 A JP2014057391 A JP 2014057391A JP 6313081 B2 JP6313081 B2 JP 6313081B2
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- state
- vehicle
- white line
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 142
- 238000009826 distribution Methods 0.000 claims description 78
- 238000001514 detection method Methods 0.000 claims description 35
- 238000000926 separation method Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000011109 contamination Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 17
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000009434 installation Methods 0.000 description 10
- IOEJYZSZYUROLN-UHFFFAOYSA-M Sodium diethyldithiocarbamate Chemical compound [Na+].CCN(CC)C([S-])=S IOEJYZSZYUROLN-UHFFFAOYSA-M 0.000 description 5
- 230000000630 rising effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000002902 bimodal effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
- B60R2300/305—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8053—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、カメラ等の画像センサからの情報に基づいて対象物を検出し、検出結果に応じて警報や車両の挙動制御を実施する自動車のための車載用画像処理装置およびそれを用いた車両システムに関する。 The present invention relates to an in-vehicle image processing apparatus for an automobile that detects an object based on information from an image sensor such as a camera, and performs an alarm or vehicle behavior control according to the detection result, and a vehicle using the same About the system.
近年、カメラ、ソナーといったセンサを用いて車両を制御し、運転者をサポートするシステムの開発が進められている。たとえば、レーンを検出し、自車が逸脱する可能性が生じたときには警報によって運転者に注意を促し、さらに逸脱が避けられない状況になったときはブレーキやステアリングの制御により逸脱を防止するシステムや、駐車枠を検出し、運転者の駐車操作の一部あるいはすべてを自動で実施する自律駐車システム等が実用化されている。 In recent years, a system for supporting a driver by controlling a vehicle using a sensor such as a camera or a sonar has been developed. For example, a system that detects lanes and alerts the driver by warning when the vehicle is likely to deviate, and prevents deviation by controlling the brakes and steering when the situation becomes unavoidable In addition, an autonomous parking system that detects a parking frame and automatically performs part or all of a driver's parking operation has been put into practical use.
カメラを用いて駐車枠やレーンを構成する白線を検出する場合、ガードレールの影や電線の影が路面上に写り、白線と同程度の幅として見えるため白線と誤検知することがある。このような誤検知への対策として、たとえば、特許文献1には、車両に搭載されたカメラでレーンを検出する際に、基準領域を設定して路面輝度のヒストグラムを作成し、路面クラスタの輝度分布から外れているものを白線として検出する技術が記載されている。
When a white line constituting a parking frame or a lane is detected using a camera, a shadow of a guard rail or a shadow of an electric wire is reflected on the road surface and appears to be as wide as the white line. As a countermeasure against such erroneous detection, for example, in
しかしながら、例えば自車の後方から太陽光が射している場合は、基準領域の大半が自車の影がかかった路面となり、影による誤検知を除去することができない。また、雨天時は路面が濡れて遠方の情景が写りこむため、路面の輝度を正確にとらえることができない。 However, for example, when sunlight is shining from behind the vehicle, most of the reference area is a road surface shaded by the vehicle, and erroneous detection due to the shadow cannot be removed. In addition, when the road is raining, the road surface gets wet and a distant scene is reflected, so the brightness of the road surface cannot be accurately captured.
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、白線等の対象物を検出する際に、路面の状態に応じた最適な基準に基づいて対象物の検出を実施する車載用画像処理装置およびそれを用いた車両システムを提供することである。 The present invention has been made in view of the above points, and the object of the present invention is to detect an object based on an optimum reference according to the road surface condition when detecting an object such as a white line. It is providing the vehicle-mounted image processing apparatus which implements, and a vehicle system using the same.
上記課題を解決する本発明の車載用画像処理装置は、路面上の対象物を検出する車載用画像処理装置であって、自車周囲を撮像した画像を取得する画像取得部と、該画像の自車近傍領域の輝度分布に基づいて自車周囲の路面状態を推定する路面状態推定部と、該路面状態に応じて対象物の判定方法を設定する判定方法設定部と、前記画像から前記対象物と推定される対象物候補を検出する対象物候補検出部と、前記判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する対象物判定部とを有することを特徴としている。 Vehicle image processing apparatus of the present invention for solving the aforementioned problems is a vehicle image processing apparatus that detects an object on the road surface, an image acquisition unit that acquires an image by imaging the vehicle periphery, of the image A road surface state estimation unit that estimates a road surface state around the vehicle based on a luminance distribution in the vicinity of the vehicle, a determination method setting unit that sets a determination method of an object according to the road surface state, and the target A target candidate detection unit that detects a target candidate that is estimated as a target, and a target determination unit that determines whether the target candidate is the target using the determination method. It is said.
本発明によれば、路面の状態を推定し、その推定した路面状態に応じて設定された判定方法を用いて対象物の判定を行うので、路面の一部を対象物と誤って検出することを防ぐことができ、これに基づいて信頼度の高い制御を実施する車両システムを提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, the road surface state is estimated, and the object is determined using the determination method set according to the estimated road surface state, so that a part of the road surface is erroneously detected as the object. Therefore, it is possible to provide a vehicle system that performs highly reliable control based on this. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。
<First embodiment>
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
図1は、第一実施の形態における車載用画像処理装置1000のブロック図である。
車載用画像処理装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1001〜1004で撮影した画像内から対象物を検出するためのものであり、本実施の形態では、自車周囲の路面に白線によって描かれた駐車枠を検出するように構成されている。複数のカメラ1001〜1004は、少なくとも路面を含むように自車周囲を全周に亘って撮像可能な位置に取り付けられており、本実施の形態では、車両の前部、左側部、右側部、後部にそれぞれ取り付けられている。なお、カメラの個数および取付位置は、自車周囲の日陰日向を検出可能とする必要があるので、最少で2個のカメラを互いに離反する方向に向かって撮像するように取り付けられていればよい。
FIG. 1 is a block diagram of an in-vehicle
The in-vehicle
車載用画像処理装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。車載用画像処理装置1000は、図1に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、白線候補検出部(対象物候補検出部)1051と、白線判定部(対象物判定部)1061と、駐車枠認識部1071と、を有する。
The in-vehicle
画像取得部1021は、図2に示すように、複数のカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。なお、俯瞰画像1015は2次元配列であり、IMGSRC[x][y]で表すものとする。x、yはそれぞれ画像の座標を示す。
As shown in FIG. 2, the
路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、自車周囲の路面状態が予め設定された複数の路面状態のいずれに属するのかを推定する。自車近傍領域1032は、俯瞰画像1015内で自車周囲の近傍に設定される領域であり、自車近傍領域1032には必ず自車周囲の路面が撮像されているとみなすことができる。輝度ヒストグラムHST[b]は1次元配列であり、bはヒストグラムのビンを表す。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類のうちのいずれに属するのかを推定する。
The road surface
判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、路面状態が[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いた判定方法を設定し、路面状態が[複雑状態]の場合は画像のパターンを用いた判定方法を設定する。
The determination
白線候補検出部1051は、俯瞰画像1015から、白線候補LC[n]を検出する。白線候補LC[n]は、白線候補の座標等の情報を持つテーブルを要素とする1次元配列であり、nは複数検出した場合のIDを表す。
The white line
白線判定部1061は、白線候補LC[n]に対して、判定方法設定部1041で設定した判定方法に基づき、白線又は路面のいずれであるかを判定し、白線LN[m]を決定する。白線LN[m]は、白線の座標等の情報を持つテーブルを要素とする1次元配列であり、mは複数検出した場合のIDを表す。
The white
駐車枠認識部1071は、白線LN[m]に基づいて、駐車枠PS[k]を検出する。駐車枠PS[k]は、駐車枠の座標等の情報を持つテーブルを要素とする1次元配列であり、kは複数検出した場合のIDを表す。
The parking
[路面状態推定部]
つぎに、図3−1から図3−6、図4−1から図4−9、図5を用いて、路面状態推定部1031における処理の内容について説明する。
[Road surface state estimation unit]
Next, the contents of processing in the road surface
図4−1は路面状態推定部1031の処理の流れを示したフローチャートであり、以下、処理の詳細について説明する。まず、ステップS401にて、自車近傍領域から輝度ヒストグラムを作成する。
FIG. 4A is a flowchart showing a flow of processing of the road surface
図3−1は、自車近傍領域1032の説明図であり、図3−1(a)〜図3−1(c)では、図面の上側が車両前方を示す。ここでは、図3−1(a)に示すように自車近傍領域1032を固定とする場合、および、図3−1(b)、(c)に示すように、自車挙動に応じて自車近傍領域1032を可変にする場合の両方について説明する。
FIG. 3A is an explanatory diagram of the
図3−1(a)に示すように、自車近傍領域1032を固定とする場合は、俯瞰画像1015内の中心付近に設定する。自車近傍領域1032の内方に示される黒い部分は、カメラ1001〜1004で撮像できない部分であるため、この領域は自車近傍領域1032の対象外とする。図3−1(b)、(c)に示すように、自車挙動に応じて自車近傍領域1032を可変にする場合は、車両の変速機のシフトポジション情報を取得し、その情報に基づいて、自車が前進している場合は図3(b)のように自車後方を大きく、自車が後進している場合は図3−1(c)のように自車前方を大きく設定する。同様に、中心部分は対象外とする。
As shown in FIG. 3A, when the own
図3−1(d)は、自車近傍領域1032から取得した輝度ヒストグラムHST[b]の例である。輝度ヒストグラムHST[b]は、画像の輝度の頻度を表し、横軸に輝度、縦軸に頻度を取った1次元グラフで表現される。
FIG. 3-1 (d) is an example of the brightness histogram HST [b] acquired from the own
図3−2から図3−6は、各路面状態とその輝度ヒストグラムの例を模式的に示す図である。図3−2は、均一状態とその輝度ヒストグラムの例を模式的に示す図、図3−3は、日陰日向状態とその輝度ヒストグラムの例を模式的に示す図、図3−4は、その他の明暗分離状態とその輝度ヒストグラムの例を模式的に示す図、図3−5は、反射状態とその輝度ヒストグラムの例を模式的に示す図、図3−6は、複雑状態とその輝度ヒストグラムの例を模式的に示す図である。 FIGS. 3-2 to 3-6 are diagrams schematically illustrating examples of each road surface state and its luminance histogram. Fig. 3-2 is a diagram schematically showing an example of a uniform state and its luminance histogram, Fig. 3-3 is a diagram schematically showing an example of a shaded and sunny state and its luminance histogram, and Fig. 3-4 is the others. FIG. 3-5 schematically illustrates an example of a reflection state and its luminance histogram, and FIG. 3-6 schematically illustrates an example of a complex state and its luminance histogram. FIG.
図3−2に示す俯瞰画像1015の路面は、日陰日向や影がなく、ほぼ単一の輝度を有するとみなすことが可能な均一状態である。このように、路面状態が均一状態であるときの輝度ヒストグラムは、路面領域の分布が大勢を占めるものとなり、一つの大きなピークを有する単峰性となる。
The road surface of the bird's-
図3−3(a)に示す俯瞰画像1015の路面は、日向に自車や建物の影が映り込んで路面の輝度が明暗に分かれている明暗分離状態の一種である日陰日向状態である。図3−4(a)に示す俯瞰画像1015の路面は、路面の輝度が道路工事等により明暗に分かれているその他の明暗分離状態である。図3−5(a)に示す俯瞰画像1015の路面は、雨等により濡れた路面に反射した構造物が映り込んでいる反射状態である。図3−6(a)に示す俯瞰画像1015の路面は、例えば複数の方向からの光や影が映り込み、輝度ヒストグラムを予め設定されている混合ガウス分布により近似することが困難な複雑状態である。
The road surface of the bird's-
そのうち、図3−3(b)、図3−4(b)、図3−5(b)に示す、日陰日向状態、その他の明暗分離状態、反射状態の各輝度ヒストグラムは、それぞれ形状は異なるが概ね二つの大きなピークを有する二峰性となる。そして、図3−6(b)に示す複雑状態の輝度ヒストグラムには三つ以上の多くのピークが現れる。 Among them, the luminance histograms shown in FIGS. 3-3 (b), 3-4 (b), and 3-5 (b) are different in shape from each other in the shaded sunlight state, the other light / dark separation state, and the reflection state. Is generally bimodal with two large peaks. Then, three or more peaks appear in the luminance histogram in the complicated state shown in FIG. 3-6 (b).
つぎに、ステップS402にて、輝度ヒストグラムの分析を行う。分析は、輝度ヒストグラムHST[b]に対して1つのピークを有する単一ガウス分布もしくは2つのピークを有する混合ガウス分布による近似を行い、その誤差を求める。以下、分布数Gで表現される混合ガウス分布のパラメータである重みα_{1、2、・・・、G}、平均μ_{1、2、・・・、G}、分散σ_{1、2、・・・、G}をテーブルGPTBL(G)として表現する。ある分布を混合ガウス分布GPTBL(G)により近似する方法は、一般的にEMアルゴリズムが用いられる。この方法は公知であるため、ここでは説明を割愛する。 Next, in step S402, the luminance histogram is analyzed. In the analysis, the luminance histogram HST [b] is approximated by a single Gaussian distribution having one peak or a mixed Gaussian distribution having two peaks, and the error is obtained. Hereinafter, the weights α_ {1, 2,..., G}, the average μ_ {1, 2,..., G}, and the variance σ_ {1, 2 are the parameters of the mixed Gaussian distribution expressed by the distribution number G. ,..., G} are expressed as a table GPTBL (G). An EM algorithm is generally used as a method of approximating a certain distribution by the mixed Gaussian distribution GPTBL (G). Since this method is publicly known, the description is omitted here.
EMアルゴリズムにより近似する場合、ガウス分布の数Gを指定する必要があるため、本実施例ではG=1、2を用いることとし、G=1の近似誤差をErr(1)、G=2の近似誤差をErr(2)とする。輝度ヒストグラムHST[b]とガウス分布GPTBL(G)の誤差は,以下の式により演算を行う。 In the case of approximation by the EM algorithm, it is necessary to specify the number G of the Gaussian distribution. Therefore, in this embodiment, G = 1 and 2 are used, and the approximation error of G = 1 is Err (1) and G = 2. Let the approximation error be Err (2). The error between the luminance histogram HST [b] and the Gaussian distribution GPTBL (G) is calculated by the following equation.
Err(G)=Σ(b=0〜255):MIN(HSTNML[b],HSTMLD(G)[b])/MAX(HSTNML[b],HSTMLD(G)[b])
ここで、HSTNML[b]は、輝度ヒストグラムHST[b]を、その合計値が1となるように正規化したものである。HSTMLD(G)[b]は、テーブルGPTBL(G)より得られる分布であり、同様にその合計値が1となるように正規化したものである。
Err (G) = Σ (b = 0 to 255): MIN (HSTNML [b], HSTMLD (G) [b]) / MAX (HSTNML [b], HSTMLD (G) [b])
Here, HSTNML [b] is obtained by normalizing the luminance histogram HST [b] so that the total value thereof is 1. HSTMLD (G) [b] is a distribution obtained from the table GPTBL (G), and is normalized so that the total value thereof is also 1.
図3−2〜図3−5の例に対してG=1で近似した場合の例を図4−2〜図4−5に示す。図4−2(a)〜(c)は、図3−2に示す均一状態の路面に対してG=1で近似した場合の例である。図4−2(a)の輝度ヒストグラムに対し、EMアルゴリズムにより取得したG=1のガウス分布の重みα_1、平均μ_1、分散σ_1により表される分布が図4−2(b)となる。図4−2(a)と(b)の誤差Err(1)は、図4−2(c)に黒く示された領域の面積となる。 Examples in the case of approximating G = 1 with respect to the examples of FIGS. 3-2 to 3-5 are shown in FIGS. FIGS. 4-2 (a) to (c) are examples when the road surface in the uniform state shown in FIG. 3-2 is approximated by G = 1. For the luminance histogram in FIG. 4A, the distribution represented by the weight α_1, the average μ_1, and the variance σ_1 of the G = 1 Gaussian distribution obtained by the EM algorithm is shown in FIG. The error Err (1) in FIGS. 4-2 (a) and (b) is the area of the region shown in black in FIG. 4-2 (c).
同様に,図4−3(a)〜(c)は、図3−3に示す日陰日向状態の路面に対してG=1で近似した場合の例である。図4−3(a)の輝度ヒストグラムから算出したガウス分布が図4−3(b)となり、図4−3(a)と(b)の誤差Err(1)は、図4−3(c)に黒く示された領域の面積となる。以下、同様に図4−4(a)〜(c)は、図3−5に示す反射状態の路面に適用した例であり、図4−5(a)〜(c)は、図3−6に示す複雑状態の路面に適用した例である。 Similarly, FIGS. 4-3 (a) to (c) are examples in the case of approximating G = 1 with respect to the road surface in the shaded and sunny state shown in FIG. 3-3. The Gaussian distribution calculated from the luminance histogram of FIG. 4-3 (a) becomes FIG. 4-3 (b), and the error Err (1) of FIGS. 4-3 (a) and (b) is shown in FIG. 4-3 (c). ) Is the area of the region shown in black. Similarly, FIGS. 4-4 (a) to (c) are examples applied to the road surface in the reflective state shown in FIG. 3-5, and FIGS. 4-5 (a) to (c) are similar to FIG. 6 is an example applied to a road surface in a complicated state shown in FIG.
次に、図3−2〜図3−5の例に対してG=2で近似した場合の例を図4−6〜図4−9に示す。図4−6(a)〜(c)は、図3−2に示す均一状態の路面に対してG=2で近似した場合の例である。図4−6(a)の輝度ヒストグラムに対し、EMアルゴリズムにより取得したG=2のガウス分布の重みα_1、α_2、平均μ_1、μ_2、分散σ_1、σ_2により表される分布が図4−6(b)に太線で示されたものとなる。図4−6(a)と(b)の誤差Err(2)は、図4−6(c)にて黒く示された領域の面積となる。 Next, examples in the case of approximating G = 2 with respect to the examples of FIGS. 3-2 to 3-5 are shown in FIGS. 4-6 to 4-9. 4-6 (a) to (c) are examples in the case of approximating G = 2 with respect to the uniform road surface shown in FIG. 3-2. With respect to the luminance histogram of FIG. 4-6 (a), distributions represented by weights α_1, α_2, average μ_1, μ_2, variances σ_1, and σ_2 of the G = 2 Gaussian distribution obtained by the EM algorithm are shown in FIG. This is indicated by a thick line in b). The error Err (2) in FIGS. 4-6 (a) and (b) is the area of the region shown in black in FIG. 4-6 (c).
同様に,図4−7(a)〜(c)は、図3−3に示す日陰日向状態の路面に対してG=2で近似した場合の例である。図4−7(a)の輝度ヒストグラムから算出したガウス分布が図4−7(b)となり、図4−7(a)と(b)の誤差Err(1)は、図4−7(c)に黒く示された領域の面積となる。以下、同様に図4−8(a)〜(c)は、図3−5に示す反射状態の路面に適用した例であり、図4−9(a)〜(c)は、図3−6に示す複雑状態の路面に適用した例である。 Similarly, FIGS. 4-7 (a) to (c) are examples in the case of approximating G = 2 with respect to the road surface in the shaded and sunny state shown in FIG. 3-3. The Gaussian distribution calculated from the luminance histogram of FIG. 4-7 (a) becomes FIG. 4-7 (b), and the error Err (1) of FIGS. 4-7 (a) and (b) is shown in FIG. ) Is the area of the region shown in black. Similarly, FIGS. 4-8 (a) to (c) are examples applied to the reflective road surface shown in FIG. 3-5, and FIGS. 4-9 (a) to (c) are similar to FIGS. 6 is an example applied to a road surface in a complicated state shown in FIG.
以上図示したように、均一状態の路面のように単峰性のヒストグラムは、G=1の分布に対する誤差が小さくなる。一方、日陰日向状態の路面のように、二峰性のヒストグラムは、G=2の分布に対する誤差が小さくなる。さらに,複雑状態の路面のように、そのどちらにも該当しないヒストグラムは、いずれの近似に対してもその誤差が大きくなる。 As shown above, a unimodal histogram such as a uniform road surface has a smaller error with respect to the distribution of G = 1. On the other hand, the bimodal histogram, like the road surface in the shaded and sunny state, has a small error with respect to the distribution of G = 2. Furthermore, a histogram that does not correspond to either of them, such as a road surface in a complicated state, has a large error with respect to any approximation.
また、均一状態の路面のように単峰性のヒストグラムに対してG=2の分布を適用すると、G=1の誤差よりも小さくなる傾向がある。したがって、以下の判定では、先にG=1での近似の誤差を判定し、誤差が大きい場合のみ、G=2での近似の誤差を判定する構成としている。 In addition, when the distribution of G = 2 is applied to a unimodal histogram like a uniform road surface, the error tends to be smaller than the error of G = 1. Accordingly, in the following determination, the approximation error at G = 1 is determined first, and the approximation error at G = 2 is determined only when the error is large.
なお、2つのヒストグラムを比較する方法は種々存在するため、誤差Err(G)の演算に別な方法を用いても良い、例えば、Bhattacharyya距離を適用する場合、以下の式にて算出する。
Err(G)=1−Σ(b=0〜255):SQRT(HSTNML[b]・HSTMLD(G)[b])
Since there are various methods for comparing the two histograms, another method may be used for the calculation of the error Err (G). For example, when the Bhattacharya distance is applied, the calculation is performed using the following equation.
Err (G) = 1−Σ (b = 0 to 255): SQRT (HSTNML [b] · HSTMLD (G) [b])
つぎに、ステップS403において、輝度ヒストグラムHST[b]が単一のガウス分布GP(1)で近似可能であるかを判定する。ここでは、GP(1)の誤差Err(1)が、閾値TH_Err1以下であれば近似可能と判定しステップS405へ、閾値より大きければ近似不可であったと判定しステップS404へ移動する。 Next, in step S403, it is determined whether the luminance histogram HST [b] can be approximated by a single Gaussian distribution GP (1). Here, if the error Err (1) of GP (1) is equal to or smaller than the threshold value TH_Err1, it is determined that approximation is possible, and if it is larger than the threshold value, it is determined that approximation is impossible and the process moves to step S404.
つぎに、ステップS404において、輝度ヒストグラムHST[b]が混合ガウス分布GP(2)で近似可能であるかを判定する。ここでは、GP(2)の場合の誤差Err(2)が、閾値TH_Err2以下であれば近似可能と判定して、路面パターンを分析するべくステップS406へ移動し、閾値より大きければ近似不可であったと判定し、ステップS409へ移動する。 Next, in step S404, it is determined whether the luminance histogram HST [b] can be approximated by the mixed Gaussian distribution GP (2). Here, if the error Err (2) in the case of GP (2) is less than or equal to the threshold value TH_Err2, it is determined that approximation is possible, and the process moves to step S406 to analyze the road surface pattern. It judges with having carried out, and moves to Step S409.
なお、ステップS402における近似において、G=2より大きい、G=3、G=4での近似を試みても良く、この場合、ステップS404ではG=2、3、4における近似誤差のうち最小の近似誤差を選択し、その値が閾値以下であるか否かによって、近似可否を判定する。 In the approximation in step S402, approximation with G = 3, G = 4, which is larger than G = 2, may be attempted. In this case, in step S404, the smallest approximation error in G = 2, 3, and 4 is used. An approximation error is selected, and whether or not approximation is possible is determined based on whether or not the value is equal to or less than a threshold value.
ステップS403で輝度ヒストグラムHST[b]が単一のガウス分布GP(1)で近似可能であると判定された場合(ステップS403でYES)、ステップS405で路面状態を[均一状態]と推定する。路面状態が[均一状態]であるとは、図3−2に示すように、路面に日陰日向や影がなく、ほぼ単一の輝度とみなすことができる状態をいう。なお、路面に駐車枠などの白線が存在する場合でも、画像内では白線の画素数よりも路面の画素数の方が圧倒的に多いので、単一のガウス分布に近似化できる。 When it is determined in step S403 that the luminance histogram HST [b] can be approximated by a single Gaussian distribution GP (1) (YES in step S403), the road surface state is estimated as [uniform state] in step S405. The road surface state is “uniform state” as shown in FIG. 3-2, which means that there is no shade or shadow on the road surface and can be regarded as almost a single luminance. Even when a white line such as a parking frame is present on the road surface, the number of pixels on the road surface is overwhelmingly larger than the number of pixels on the white line in the image, so that it can be approximated to a single Gaussian distribution.
ステップS404で輝度ヒストグラムHST[b]が混合ガウス分布GP(2)で近似可能であると判定された場合(ステップS404でYES)、路面が明暗に分離された[明暗分離状態]であると推定し、その状態をさらに詳細に分析すべく、ステップS406以降の処理を実行する。ステップS406で路面パターン分析を実施する。路面パターン分析では、路面の明暗の形状を認識する処理が行われる。そして、ステップS406において認識された、路面の明暗の形状に基づき、ステップS407で[明暗分離状態]が[反射状態]であるか否かが判断される。 If it is determined in step S404 that the luminance histogram HST [b] can be approximated by the mixed Gaussian distribution GP (2) (YES in step S404), it is estimated that the road surface is separated into light and dark [light / dark separation state]. Then, in order to analyze the state in more detail, the processing after step S406 is executed. In step S406, road surface pattern analysis is performed. In the road surface pattern analysis, processing for recognizing the light and dark shape of the road surface is performed. Then, based on the bright and dark shape of the road surface recognized in step S406, it is determined in step S407 whether or not [brightness / darkness separation state] is [reflection state].
ステップS407で[反射状態]ではない(NO)と判断された場合には、ステップS408に移行して、路面状態を[日陰日向状態]もしくは[その他の明暗分離状態]のいずれかであると推定する。一方、ステップS407で[反射状態]である(YES)と判断された場合には、ステップS409に移行して、路面状態を[複雑状態([反射状態]を含む]であると推定する。 If it is determined in step S407 that it is not [reflective state] (NO), the process proceeds to step S408, and it is estimated that the road surface state is either [shade-sunshine state] or [other light / dark separation state]. To do. On the other hand, if it is determined in step S407 that the state is [reflection state] (YES), the process proceeds to step S409, and the road surface state is estimated to be [complex state (including [reflection state]).
図5は、路面状態の具体例を示す図であり、図5(a)は日陰日向状態を示し、図5(b)はその他の明暗分離状態を示し、図5(c)は反射状態を示している。路面状態が[日陰日向状態]であるとは、画像に自車の影が映り込んでいる状態をいう。そして、[その他の明暗分離状態]であるとは、例えば図5(b)に示すように、ビルや壁などの自車以外の物体の影が映り込んでいる状態や、道路工事等により路面の輝度が部分的に異なっている状態をいう。そして、[反射状態]であるとは、例えば図5(c)に示すように、雨等により濡れた路面に反射した構造物が映り込んでいる状態をいう。 FIG. 5 is a diagram showing a specific example of the road surface state, FIG. 5 (a) shows a shaded and sunny state, FIG. 5 (b) shows other light / dark separation states, and FIG. 5 (c) shows a reflection state. Show. The road surface state being “shade and sunny state” refers to a state in which the shadow of the vehicle is reflected in the image. And [other light-and-dark separation state] means that, for example, as shown in FIG. 5 (b), the road surface is reflected by a state in which a shadow of an object other than the own vehicle such as a building or a wall is reflected, or road construction. The state in which the brightness of the is partially different. The “reflection state” means a state in which a structure reflected on a road surface wet by rain or the like is reflected as shown in FIG. 5C, for example.
路面パターン分析は、近似した混合ガウス分布パラメータGP(2)を用いて、俯瞰画像1015を分析することにより行われる。以下、GP(2)の2つのガウス分布のうち、平均輝度が大きい分布をGPH、平均輝度が小さい分布をGPLとする。
The road surface pattern analysis is performed by analyzing the
まず、俯瞰画像1015の各画素に対し、2つのガウス分布のうち、GPLに属している画素を抽出する。属しているか否かは、各画素の輝度をGPL、GPHに代入し、GPLの出力値がGPHの出力値より大きいか否かによって判定可能である。
First, for each pixel of the
つぎに、俯瞰画像1015内でGPLに属している画素のみを抽出した2値画像を生成し、形状を分析する。例えば図5(a)に示すように、平均輝度が小さいガウス分布に属している画素が、自車近傍領域内から一定方向に延びている場合は、路面状態が[日陰日向状態]であると判定する。路面状態が[日陰日向状態]と判定された場合、GPH画素領域Saが日向路面に相当し、GPL画素領域Sbが日陰路面に相当する。
Next, a binary image is generated by extracting only pixels belonging to the GPL in the
例えば図5(b)に示すように、GPLに属している画素が画像の半分に存在する等、自車近傍領域内がGPL画素領域SbとGPH画素領域Saに二分に区画される場合には、路面状態が[その他の明暗分離状態]であると判定する。図5(c)に示すように雨等により濡れた路面に反射した構造物が映り込んでいる等により、GPL画素領域Sbが複雑な形状を有している場合は、[反射状態]であると判定する(ステップS407でYES)。上記判定は、GPLに属している画素を抽出した2値画像に対し、ラベリング処理を行い、各ラベルの形状を見ることで判定することができる。 For example, as shown in FIG. 5 (b), when the area near the vehicle is divided into the GPL pixel area Sb and the GPH pixel area Sa, for example, the pixels belonging to the GPL are present in half of the image. Then, it is determined that the road surface state is [other light / dark separation state]. When the GPL pixel region Sb has a complicated shape due to reflection of a structure reflected on the road surface wetted by rain or the like as shown in FIG. (YES in step S407). The above determination can be made by performing a labeling process on a binary image obtained by extracting pixels belonging to the GPL and viewing the shape of each label.
ステップS407において,路面状態が[反射状態]でなければステップS408へ移動し、[反射状態]であればステップS409へ移動する。ステップS408は,輝度ヒストグラムを予め設定されているガウス分布により近似することが可能であると判定し,路面状態を[日陰日向状態]もしくは[その他の明暗分離状態]であると推定する。ステップS409は、輝度ヒストグラムを予め設定されているガウス分布により近似することが困難、もしくは、形状が複雑であると判定し、路面状態を[複雑状態]であると推定する。[反射状態]は、[複雑状態]の部分集合として扱う。 In step S407, if the road surface state is not “reflection state”, the process moves to step S408. If the road surface state is “reflection state”, the process moves to step S409. In step S408, it is determined that the luminance histogram can be approximated by a Gaussian distribution set in advance, and the road surface state is estimated to be [shade sunshine state] or [other light / dark separation state]. In step S409, it is determined that it is difficult to approximate the luminance histogram by a preset Gaussian distribution or the shape is complicated, and the road surface state is estimated to be [complex state]. [Reflection state] is treated as a subset of [Complex state].
以上説明したように、路面状態推定部1031では自車近傍領域のヒストグラムが単峰性、二峰性、その他のどのモデルにもっとも当てはまるか、さらにあてはめたモデルにおけるパラメータを推定する。
As described above, the road surface
[判定方法設定部]
つぎに、判定方法設定部1041の処理の内容について説明する。
本実施例においては、路面状態が[複雑状態]と推定された場合とそれ以外の場合で大きく2種類の判定方法を用いる。路面状態が[複雑状態]以外と判定された場合は、路面状態推定部1031にて用いた混合ガウス分布モデルGP(G)を用いた判定を行う。一方、路面状態が[複雑状態]と判定された場合は、輝度パターンを用いた判定を行う。輝度パターンについての詳細は、白線判定部1061にて説明する。
[Judgment method setting section]
Next, the contents of processing of the determination
In the present embodiment, two types of determination methods are mainly used in cases where the road surface state is estimated as [complex state] and in other cases. If the road surface state is determined to be other than [complex state], determination using the mixed Gaussian distribution model GP (G) used in the road surface
[白線候補検出部]
つぎに、図6を用いて、白線候補検出部1051における処理の内容について説明する。
図6は、白線候補検出部1051の処理の流れを示したフローチャートである。白線候補検出部1051は、俯瞰画像1015全体に対して実施しても良いし、処理領域を限定しても良い。本実施例では、シフトポジションに基づいて、自車が停車・前進している場合は俯瞰画像1015の上半分を、自車が後進している場合は下半分を処理領域として設定する。
[White line candidate detection unit]
Next, the contents of processing in the white line
FIG. 6 is a flowchart showing the processing flow of the white line
まず、ステップS601にて、処理領域内の各ラインに対して画像の左側から右側に走査しながら、縦方向のエッジフィルタを適用する。以下、ステップS602、S603はライン毎に実施する。ステップS602にて、エッジフィルタの出力値がピークとなるエッジ点を検出する。ピークは、立ち上がりエッジ(輝度の暗から明への変化点)Eu[nu]立下りエッジ(輝度の明から暗への変化点)Ed[nd]を検出する。 First, in step S601, a vertical edge filter is applied to each line in the processing region while scanning from the left side to the right side of the image. Hereinafter, steps S602 and S603 are performed for each line. In step S602, an edge point where the output value of the edge filter reaches a peak is detected. The peak is detected at the rising edge (change point of luminance from dark to light) Eu [nu] falling edge (change point of luminance from light to dark) Ed [nd].
路面上の白線は路面よりも輝度値が高いため、白線の左側には立ち上がりエッジが、右側には立下りエッジが存在する。その特徴を捉えるため、ステップS603にて、ステップS602で検出した立ち上がりエッジ点Eu[nu]、立下りエッジ点Ed[nd]のうち、立ち上がりエッジから画像右側の所定範囲(あらかじめ定義する、検出する白線の最大太さ)内に立下りエッジが存在するエッジペアEp[np]のみを残し、それ以外の単独エッジは消去する。上記S601〜S603を、処理領域内の各ラインに対して実行する。 Since the white line on the road surface has a higher luminance value than the road surface, a rising edge exists on the left side of the white line and a falling edge exists on the right side. In order to capture the feature, in step S603, among the rising edge point Eu [nu] and the falling edge point Ed [nd] detected in step S602, a predetermined range on the right side of the image from the rising edge (predefined and detected) Only the edge pair Ep [np] in which the falling edge exists within the maximum thickness of the white line is left, and the other single edges are deleted. The above S601 to S603 are executed for each line in the processing area.
つぎに、ステップS604にて、エッジペアEp[np]のうち、直線状に並んでいるものをグルーピングし、直線候補グループLg[ng]を生成する。ここで、直線状でないエッジペアを除去する。直線上に並ぶ白線のグルーピングは、公知のハフ変換を用いることで可能である。つぎに、ステップS605にて、直線候補グループLg[ng]の線のうち、所定長さ以下のものを除去する。そして、ステップS606にて、残ったグループの立ち上がり・立下りエッジの上端・下端の座標を、白線候補LC[n]の要素として格納する。 Next, in step S604, the edge pairs Ep [np] arranged in a straight line are grouped to generate a straight line candidate group Lg [ng]. Here, edge pairs that are not linear are removed. The grouping of white lines arranged on a straight line is possible by using a known Hough transform. Next, in step S605, lines having a predetermined length or less are removed from the lines of the straight line candidate group Lg [ng]. In step S606, the coordinates of the upper and lower edges of the rising and falling edges of the remaining group are stored as elements of the white line candidate LC [n].
[白線判定部]
つぎに、図7−1〜図7−3、図8−1、図8−2、図9を用いて、白線判定部1061における処理の内容について説明する。図7−1は、白線判定部1061の処理の流れを示したフローチャートである。
[White line judgment part]
Next, the content of processing in the white
まず、ステップS701にて、路面状態推定部1031にて判定された路面状態が[複雑状態]であったか否かを確認する。[複雑状態]ではなかった場合はステップS7011へ移動し、[複雑状態]であった場合はステップS706へと移動する。ステップS7011では、路面状態推定部1031にて判定された路面状態が[日陰日向状態]であったか否かを確認する。[日陰日向状態]ではなかった場合はステップS702に移動し、[日陰日向状態]であった場合はステップS707へと移動する。以下、ステップS702からステップS705までの処理は、白線候補LC[n]の数だけ処理を繰り返す。
First, in step S701, it is confirmed whether or not the road surface state determined by the road surface
まず、ステップS702にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]を作成する。つぎに、ステップS703にて、白線候補輝度(白線候補の内側輝度ヒストグラム)が路面輝度基準に含まれるか否かを判断する。ここでは、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_LNGPを算出し、閾値TH_LNGPと比較する。そして、誤差Err_LNGPが閾値TH_LNGPよりも大きければ、白線候補の輝度が路面輝度基準に含まれない(ステップS703でNO)と判定し、ステップS704へ移動し、誤差Err_LNGPが閾値TH_LNGP以下であれば路面輝度基準に含まれる(ステップS703でYES)と判定し、ステップS705へ移動する。
First, in step S702, a luminance histogram HSTLC [n] inside the white line candidate LC [n] is created. Next, in step S703, it is determined whether the white line candidate luminance (inner luminance histogram of the white line candidate) is included in the road surface luminance reference. Here, an error Err_LNGP between the luminance histogram HSTLC [n] inside the white line candidate LC [n] and the mixed Gaussian distribution model GP (G) set by the determination
ステップS704では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。一方、ステップS705では、白線候補は白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。ステップS706では、次で説明する[複雑状態]であると判定された場合の処理に入る。 In step S704, the white line candidate is determined to be a white line, and the information of the white line candidate LC [n] is copied to the white line LN [m]. On the other hand, in step S705, it is determined that the white line candidate is not a white line, and the information of the white line candidate LC [n] is not copied to the white line LN [m] but is erased. In step S706, the process when it is determined that the state is [complex state] described below is entered.
上記した白線判定処理の具体例について図7−2、図7−3を用いて説明する。図7−2(a)は、自車前方の駐車枠線を白線候補LCとして検知しているシーンである。ここでは左右の白線候補のうち、右側の白線候補LCに対する処理について説明する(左側の白線候補に対する処理も同様である)。 A specific example of the above-described white line determination process will be described with reference to FIGS. 7-2 and 7-3. FIG. 7-2 (a) is a scene in which a parking frame line in front of the host vehicle is detected as a white line candidate LC. Here, the processing for the right white line candidate LC among the left and right white line candidates will be described (the same applies to the processing for the left white line candidate).
図7−2(b)は、白線候補LC[n]の内側領域(図7−2(a)右側の点線矩形内)の輝度ヒストグラムHSTLC[n]、図7−2(c)は、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)のヒストグラム、図7−2(d)は、図7−2(b)と(c)のヒストグラムの誤差を表示したものである。
FIG. 7-2 (b) shows the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n] (inside the dotted rectangle on the right side of FIG. 7-2 (a)), and FIG. The histogram of the mixed Gaussian distribution model GP (G) set by the
白線候補LC[n]の内側領域の輝度ヒストグラムHSTLC[n]として図7−2(b)に示す輝度ヒストグラムが得られ、判定方法設定部1041にて設定した混合ガウス分布モデルGP(G)の輝度ヒストグラムが図7−2(c)に示すものであった場合に、図7−2(b)と(c)のヒストグラムを比較すると、図7−2(d)に示すように、互いに分布の位置が大きく異なっている。したがって、路面状態推定部1031にて述べた方法を用いて、これら2つのヒストグラムの誤差を求めると、閾値TH_LNGPを超える大きい値が得られ、白線として判定される.
The luminance histogram shown in FIG. 7B is obtained as the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n], and the mixed Gaussian distribution model GP (G) set by the determination
一方、図7−3の例について説明する。図7−3(a)は、自車前方に影(GPL画素領域Sb)が存在し、その影の間の日向部分(GPH画素領域Sa)を白線候補LCとして検出しているシーンである。ここでは左右の白線候補のうち、右側の白線候補LCに対する処理について説明する(左側の白線候補に対する処理も同様である)。 On the other hand, the example of FIG. FIG. 7-3 (a) is a scene in which a shadow (GPL pixel area Sb) exists in front of the host vehicle, and a sunlit part (GPH pixel area Sa) between the shadows is detected as a white line candidate LC. Here, the processing for the right white line candidate LC among the left and right white line candidates will be described (the same applies to the processing for the left white line candidate).
図7−3(b)は、白線候補LC[n]の内側領域(図7−3(a)右側の点線矩形内)の輝度ヒストグラムHSTLC[n]、図7−3(c)は、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)のヒストグラム、図7−3(d)は、図7−3(b)と(c)のヒストグラムの誤差を表示したものである。
FIG. 7-3 (b) shows the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n] (inside the dotted rectangle on the right side of FIG. 7-3 (a)), and FIG. The histogram of the mixed Gaussian distribution model GP (G) set by the
白線候補LC[n]の内側領域の輝度ヒストグラムHSTLC[n]として図7−3(b)に示す輝度ヒストグラムが得られ、判定方法設定部1041にて設定した混合ガウス分布モデルGP(G)の輝度ヒストグラムが図7−3(c)に示すものであった場合に、図7−3(b)と(c)のヒストグラムを比較すると、図7−3(d)に示すように、分布の位置がほぼ一致する。したがって、路面状態推定部1031にて述べた方法を用いて、これら2つのヒストグラムの誤差を求めると、小さい値が得られる。したがって、閾値TH_LNGP以下の値となり、白線ではないと判定され、消去される。
The luminance histogram shown in FIG. 7-3 (b) is obtained as the luminance histogram HSTLC [n] of the inner region of the white line candidate LC [n], and the mixed Gaussian distribution model GP (G) set by the determination
ステップS706では、図8−1に記載された処理が実行される。図8−1は、路面が[複雑状態]であると判定された場合の処理である。ステップS801からステップS804までの処理は、白線候補LC[n]の数だけ処理を繰り返す。まず、ステップS801にて、白線候補周辺の輝度パターン、つまり俯瞰画像1015に対して白線候補を含む領域を設定する。つぎに、ステップS802にて、白線候補の輝度パターンが放射状であるか、つまり俯瞰画像1015に対して白線候補を含むよう設定された領域の形状が放射状であるかを判定する。図2を用いて説明したように、俯瞰画像1015は上空からの仮想視点の画像である。
In step S706, the process described in FIG. 8-1 is executed. FIG. 8A is a process when it is determined that the road surface is in the “complex state”. The processing from step S801 to step S804 is repeated for the number of white line candidates LC [n]. First, in step S <b> 801, a region including a white line candidate is set for a luminance pattern around the white line candidate, that is, the
雨などで濡れた路面に構造物が反射して映り込む路面反射等が存在すると、路面上に図5(c)のようなパターンが現れる。このパターンは俯瞰画像1015上におけるカメラ設置位置から放射状に延びるため、白線候補を含むよう設定された領域内の画像がカメラ設置位置から放射状になっているか否かを判定することで、白線候補が路面反射によるものなのか、本当の白線なのかを見分けることができる。
If there is road surface reflection or the like in which the structure is reflected and reflected on the road surface wet by rain or the like, a pattern as shown in FIG. 5C appears on the road surface. Since this pattern extends radially from the camera installation position on the bird's-
本実施例では、放射状であるかを判定する方法として、以下の方法を用いる。まず、白線候補を含むよう設定された領域内の各画像からエッジ角度DE[x][y]を算出する。つぎに、各画素の位置とカメラ設置位置が成す角度DC[x][y]を算出する。そして、DE[x][y]とDC[x][y]の差を求め、その値が閾値TH_DEDC以内であるか否かを判定する。以上の処理を、白線候補を含むよう設定された領域内のすべての画素に実施し、閾値以内である画素数をカウントする。そして、カウントした画素数を領域の面積で割った値RRを求め、その値が閾値TH_RR以上であれば放射状であると判定し、そうでなければ放射状ではないと判定する。ここで,閾値TH_DEDC、TH_RRはあらかじめ設定しておく。 In the present embodiment, the following method is used as a method for determining whether the beam is radial. First, an edge angle DE [x] [y] is calculated from each image in an area set to include white line candidates. Next, an angle DC [x] [y] formed by the position of each pixel and the camera installation position is calculated. Then, the difference between DE [x] [y] and DC [x] [y] is obtained, and it is determined whether or not the value is within the threshold TH_DEDC. The above processing is performed for all the pixels in the region set to include white line candidates, and the number of pixels that are within the threshold is counted. Then, a value RR obtained by dividing the counted number of pixels by the area of the region is obtained. If the value is equal to or greater than the threshold value TH_RR, it is determined to be radial, otherwise it is determined not to be radial. Here, threshold values TH_DEDC and TH_RR are set in advance.
ステップS802にて、白線候補の輝度パターンが放射状ではない(ステップS802でNO)と判定されるとステップS803へ移動する。ステップS803では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。一方、ステップS802にて、白線候補の輝度パターンが放射状である(ステップS802でYES)と判定されるとステップS804へ移動する。ステップS804では、白線候補を白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。 If it is determined in step S802 that the brightness pattern of the white line candidate is not radial (NO in step S802), the process moves to step S803. In step S803, the white line candidate is determined as a white line, and the information of the white line candidate LC [n] is copied to the white line LN [m]. On the other hand, if it is determined in step S802 that the brightness pattern of the white line candidate is radial (YES in step S802), the process moves to step S804. In step S804, it is determined that the white line candidate is not a white line, and the information of the white line candidate LC [n] is not copied to the white line LN [m] but is erased.
上記処理における放射状である白線候補の例と、放射状ではない白線候補の例について、図8−2を用いて説明する。図8−2は、俯瞰画像において白線候補が放射線状か否かを説明する図である。図8−2(a)には、俯瞰画像1015上におけるカメラ1001〜1004の各設置位置が示されている。路面への映り込みは、このカメラ位置から放射状に延びる方向となる。
An example of radial white line candidates and an example of non-radial white line candidates in the above processing will be described with reference to FIG. FIG. 8-2 is a diagram for explaining whether or not white line candidates are radial in the overhead image. FIG. 8-2 (a) shows the installation positions of the
図8−2(b)は、放射状ではない白線候補LCの例である。この場合、白線候補LCのエッジの角度が放射状ではないため、カメラ1001の位置を通らない。すなわち、白線候補LCの延長線上にカメラ1001が位置していない。よって、各画素のエッジ角度DE[x][y]と各画素とカメラ設置位置が成す角度DC[x][y]の誤差は大きくなる。
FIG. 8B is an example of a white line candidate LC that is not radial. In this case, since the edge angle of the white line candidate LC is not radial, the position of the
図8−2(c)は、放射状である白線候補LCの例である。この場合、白線候補LCのエッジの角度が放射状であるため、カメラ1001の位置を通る。すなわち、白線候補LCの延長線上にカメラ1001が位置している。よって、各画素のエッジ角度DE[x][y]と各画素とカメラ設置位置が成す角度DC[x][y]の誤差は小さくなる。
FIG. 8-2 (c) is an example of a radial white line candidate LC. In this case, since the angle of the edge of the white line candidate LC is radial, it passes through the position of the
さらに、図9にて、路面状態が[日陰日向状態]であると判定された場合の処理を説明する。ステップS7011で路面状態が[日陰日向状態]であると判定されると、ステップS707に移動し、図9に記載された処理が実行される。図9は、路面が[日陰日向状態]であると判定された場合の処理である。 Furthermore, a process when it is determined in FIG. 9 that the road surface state is [shade-sunshine state] will be described. If it is determined in step S7011 that the road surface state is [shade and sunny], the process moves to step S707, and the process described in FIG. 9 is executed. FIG. 9 shows a process when it is determined that the road surface is [shade and sunny].
以下、ステップS901からステップS906までの処理は、白線候補LC[n]の数だけ処理を繰り返す。 Hereinafter, the processing from step S901 to step S906 is repeated by the number of white line candidates LC [n].
ステップS901にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]を取得する。つぎに、ステップS902にて、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[n]を取得する。つぎに、ステップS903にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、日向路面の分布モデルGPHとの誤差Err_LNGPHを算出し、閾値TH_LNGPHと比較する。誤差Err_LNGPHが閾値TH_LNGPHより大きければ日向路面輝度基準に含まれない(ステップS903でNO)と判定しステップS906へ移動し、誤差Err_LNGPHが閾値TH_LNGPH以下であれば日向路面輝度基準に含まれる(ステップS903でYES)と判定し、ステップS904へ移動する。 In step S901, the brightness histogram HSTLC [n] inside the white line candidate LC [n] is acquired. Next, in step S902, a luminance histogram HSTLCEX [n] outside the white line candidate LC [n] is acquired. Next, in step S903, an error Err_LNGPH between the luminance histogram HSTLC [n] inside the white line candidate LC [n] and the sunny road surface distribution model GPH is calculated and compared with a threshold value TH_LNGPH. If the error Err_LNGPH is greater than the threshold TH_LNGPH, it is determined that it is not included in the sun road surface brightness reference (NO in step S903), and the process proceeds to step S906. YES, and the process proceeds to step S904.
つぎに、ステップS904にて、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[n]と、日陰路面の分布モデルGPLとの誤差Err_LNGPLを算出し、閾値TH_LNGPLと比較する。誤差Err_LNGPLが閾値TH_LNGPLよりも大きければ日陰路面輝度基準に含まれない(ステップS904でNO)と判定し、ステップS906へ移動し、誤差Err_LNGPLが閾値TH_LNGPL閾値以下であれば日陰路面輝度基準に含まれる(ステップS904でYES)と判定し、ステップS905へ移動する。 Next, in step S904, an error Err_LNGPL between the luminance histogram HSTLCEX [n] outside the white line candidate LC [n] and the shaded road surface distribution model GPL is calculated and compared with a threshold TH_LNGPL. If the error Err_LNGPL is larger than the threshold value TH_LNGPL, it is determined that it is not included in the shaded road surface brightness reference (NO in step S904), and the process moves to step S906. It determines with (it is YES at step S904), and moves to step S905.
ステップS906では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。ステップS905では、白線候補を白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。 In step S906, the white line candidate is determined to be a white line, and the information of the white line candidate LC [n] is copied to the white line LN [m]. In step S905, it is determined that the white line candidate is not a white line, and the information on the white line candidate LC [n] is not copied to the white line LN [m] but is erased.
以上、白線判定部1061において、白線候補LC[n]の輝度と路面状態に応じた判定方法に基づいて、白線候補LC[n]を白線LN[n]に含めるか否かという処理を説明した。本実施例では、路面状態が[複雑状態]以外の状態であった場合には白線候補LC[n]の内側の輝度ヒストグラムHSTLC[b]と混合ガウス分布近似モデルGP(G)の誤差の大きさに基づいて判定する。また、路面状態が[複雑状態]であった場合には、白線候補LC[n]を含む領域の輝度パターンが放射状の特徴を持つ度合いに基づいて判定する。
As described above, the white
さらに、路面状態が[日陰日向状態]であった場合には、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[b]と日向路面のガウス分布モデルGPHとの誤差の大きさ、および、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[b]と日陰路面のガウス分布モデルGPLとの誤差の大きさに基づいて判定する。このような処理により、路面状態に応じた判定が可能となり、誤認識を防ぐことが可能となる。 Further, when the road surface state is [shade-sunshine state], the magnitude of error between the brightness histogram HSTLC [b] inside the white line candidate LC [n] and the Gaussian distribution model GPH of the sun road surface, and the white line The determination is based on the magnitude of the error between the brightness histogram HSTLCEX [b] outside the candidate LC [n] and the shaded Gaussian distribution model GPL. By such processing, determination according to the road surface condition is possible, and erroneous recognition can be prevented.
[駐車枠認識部]
つぎに、図10を用いて、駐車枠認識部1071における処理の内容について説明する。
図10は駐車枠認識部1071の処理の流れを示したフローチャートである。
[Parking frame recognition unit]
Next, the contents of processing in the parking
FIG. 10 is a flowchart showing a processing flow of the parking
まず、ステップS101にて、白線LN[m]から2本の線LN[mL]、LN[mR]を選択する。つぎに、ステップS102において、ステップS101で選択した2本の白線LN[mL]、LN[mR]の延在方向の角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS102では、2本の白線が略平行であるか否かを判断する。ステップS102が肯定判断されるとステップS103へ進み、2本の白線LN[mL]、LN[mR]の間隔Wが所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS103では、駐車枠を構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。 First, in step S101, two lines LN [mL] and LN [mR] are selected from the white line LN [m]. Next, in step S102, it is determined whether or not the angular difference θ in the extending direction of the two white lines LN [mL] and LN [mR] selected in step S101 is equal to or smaller than a predetermined value (Thθmax). That is, in step S102, it is determined whether or not the two white lines are substantially parallel. If a positive determination is made in step S102, the process proceeds to step S103, and it is determined whether or not the interval W between the two white lines LN [mL] and LN [mR] is within a predetermined range (ThWmin or more and ThWmax or less). That is, in step S103, it is determined whether or not two white lines are aligned at an interval that can be considered as two white lines constituting the parking frame.
ステップS103が肯定判断されるとステップS104へ進み、2本の白線の下端のずれΔBが所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断する。ここで、2本の白線の下端のずれについて、図11を参照して説明する。図11の左図(a)に示すように、駐車場の敷地における車両1の移動方向(図11の紙面における上下方向および左右方向)に対して車両1を平行または直角に駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合、紙面における2本の白線の下端のずれΔBは少ない。
If an affirmative determination is made in step S103, the process proceeds to step S104, and it is determined whether or not the deviation ΔB between the lower ends of the two white lines is within a predetermined range (from ThBmin to ThBmax). Here, the shift of the lower ends of the two white lines will be described with reference to FIG. As shown to the left figure (a) of FIG. 11, it parks so that the
しかし、図11の右図(b)に示すように、駐車場によっては、車両10の移動方向(図11の紙面における上下方向および左右方向)に対して車両10を平行または直角ではなく斜めに駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合がある。この場合、距離Bで示すように、駐車枠23を構成する駐車枠線23Lの下端位置がずれる。すなわち、2本の白線の下端のずれは大きい。これは、図示右側の駐車枠線23Lが紙面下方の車両1が走行する領域に対してはみ出さないようにするために、駐車枠線23Lの下端位置をずらしてあるからである。
However, as shown in the right figure (b) of FIG. 11, depending on the parking lot, the
たとえば、高速道路のサービスエリアやパーキングエリアでは、図11の右図(b)の左側の駐車枠線23Lの下端から駐車枠線23Lの延在方向に対して垂直な線分と、駐車枠線23Lの下端同士を結ぶ線分との交差角度ρが0度、30度、45度のいずれかとすることが定められている。また、駐車枠23の幅Wについても取り得る値の範囲が決まっている。そこで、本実施の形態では、上記交差角度ρが、0度、30度、45度のいずれかの値であるときに取り得る距離Bの値があらかじめ不図示のメモリ等に記憶されている。
For example, in a highway service area or parking area, a line segment perpendicular to the extending direction of the
本実施の形態のステップS104では、選択したLN[mL]、LN[mR]から算出される距離Bとを比較して、その差が上述した所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断することによって、2本の白線が1つの駐車枠23を構成する白線(駐車枠線23L)であるか否かを判断する。
In step S104 of the present embodiment, the distance B calculated from the selected LN [mL] and LN [mR] is compared, and the difference is within the predetermined range described above (ThBmin or more and ThBmax or less). By judging whether or not, it is judged whether or not the two white lines are white lines (
ステップS104が肯定判断されるとステップS105へ進み、2本の白線LN[mL]、LN[mR]で構成される矩形の駐車枠23の4隅の座標を1つの駐車枠23についての位置の情報PS[k]として登録する。ステップS105を実行するとステップS106へ進み、白線判定部1061から出力された情報に基づくすべての白線(駐車枠線)に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS106が肯定判断されると、上述した処理によって得られた結果を出力して、駐車枠認識部1071の処理を終了する。ステップS106が否定判断されるとステップS101へ戻る。
If an affirmative determination is made in step S104, the process proceeds to step S105, and the coordinates of the four corners of the
以上説明したように、路面状態に応じて白線の判定方法を切り替えて誤認識を抑制することができ、駐車枠認識の精度を向上させることができる。 As described above, the white line determination method can be switched according to the road surface condition to suppress erroneous recognition, and the accuracy of parking frame recognition can be improved.
なお、本実施例ではモノクロカメラについて説明したが、色情報(カラー情報)を用いても良い。色情報を用いる場合は、R、G、Bの3チャネルすべてについて、上記処理を実施することで実現可能である。 In this embodiment, the monochrome camera has been described. However, color information (color information) may be used. When color information is used, it can be realized by performing the above processing for all three channels of R, G, and B.
さらに、図12は、本実施例にて検出した駐車枠認識結果PS[k]を、同一の車両に搭載された別の制御装置へ送信し、駐車支援制御を実施する場合のブロック図である。ここでは、駐車支援制御部1081は、駐車枠認識結果PS[k]の位置情報を取得し、駐車支援制御を実施する。
Furthermore, FIG. 12 is a block diagram in the case where the parking frame recognition result PS [k] detected in the present embodiment is transmitted to another control device mounted on the same vehicle, and the parking support control is performed. . Here, the parking
図13は駐車支援制御部1081の処理の流れを示したフローチャートである。
まず、ステップS1301にて、駐車枠認識結果PS[k]の位置情報を取得する。駐車枠認識結果PS[k]は、車載用画像処理装置1000の信号を制御装置へ直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。
FIG. 13 is a flowchart showing a processing flow of the parking
First, in step S1301, position information of the parking frame recognition result PS [k] is acquired. The parking frame recognition result PS [k] may be acquired by directly inputting a signal of the in-vehicle
つぎに、ステップS1302にて、駐車軌跡を算出する。駐車軌跡は、駐車枠認識結果PS[k]の位置に基づいて生成する。つぎに、ステップS1303にて、駐車可否を判断する。車両の切り返しを数回実施しても駐車不可能である場合は、ステップS1305へ移動し、駐車支援を中止する。一方、駐車可能である場合は、ステップS1304へ移動し、ステアリング、アクセル、ブレーキの少なくともいずれか一つの制御を実施して、目標の駐車枠へ駐車する支援を実施する。 Next, a parking locus is calculated in step S1302. The parking locus is generated based on the position of the parking frame recognition result PS [k]. Next, in step S1303, it is determined whether parking is possible. If the vehicle cannot be parked even if the vehicle is turned back several times, the process moves to step S1305 and parking assistance is stopped. On the other hand, if the vehicle can be parked, the process moves to step S1304, and at least one of steering, accelerator, and brake is controlled to assist parking in the target parking frame.
<第二実施の形態>
つぎに、本発明の車載用画像処理装置の第二実施の形態について、以下に図面を用いて説明する。
<Second embodiment>
Next, a second embodiment of the in-vehicle image processing apparatus of the present invention will be described below with reference to the drawings.
図14は、第二実施の形態における車載用画像処理装置2000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用画像処理装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
FIG. 14 is a block diagram illustrating a configuration of the in-vehicle
本実施の形態において特徴的なことは、汚れ検出部2091を有し、その情報を用いて白線判定部2061の処理を行うところである。
What is characteristic in the present embodiment is that it has a
車載用画像処理装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から対象物を検知するためのものであり、本実施の形態では、自車の前方の障害物を検知するように構成されている。
The in-vehicle
車載用画像処理装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
The in-vehicle
車載用画像処理装置2000は、図14に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、白線候補検出部1051と、汚れ検出部2091と、白線判定部2061と、駐車枠認識部2071と、さらに、駐車支援制御部2081と、を有する。
As illustrated in FIG. 14, the in-vehicle
画像取得部1021は、図2に示すように、自車の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。
As shown in FIG. 2, the
路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、路面状態を推定する。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類を推定する。
The road surface
判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いた判定を行い、[複雑状態]の場合は画像のパターンを用いた判定を行う。
The determination
白線候補検出部1051は、俯瞰画像1015から、白線候補LC[n]を検出する。汚れ検出部2091は、俯瞰画像1015から、カメラのレンズ汚れ位置を算出する。白線判定部2061は、白線候補LC[n]に対して、判定方法設定部1041で設定した判定基準、および、汚れ検出部2091により検出した汚れ情報に基づき、白線の信頼度LRLB[n]を算出する。駐車枠認識部2071は、白線候補LC[n]および白線の信頼度LRLB[n]に基づいて、駐車枠PS[k]を検出する。
The white line
さらに、駐車支援制御部2081は、車載用画像処理装置2000と同一の車両に搭載されている制御装置内に搭載され、車載用画像処理装置2000から受信した駐車枠認識結果PS[k]の位置情報および信頼度を用いて、自車との位置関係に応じて、最適な駐車軌跡を算出し、ステアリング、アクセル、ブレーキを制御して、目標の駐車枠へ駐車する。
Furthermore, the parking assist
[汚れ検出部]
図15を用いて、汚れ検出部2091の一例に関する処理の内容について説明する。
図15は本実施例における、汚れ検出部2091の処理の流れを示したフローチャートである。
[Dirt detection unit]
The content of the process regarding an example of the stain | pollution |
FIG. 15 is a flowchart showing the flow of processing of the
ステップS1401では、俯瞰画像1015を複数の小領域に分割する。小領域の区切り方はあらかじめ設定されているものとする。ステップS1402では、各小領域でヒストグラムを作成する。ステップS1403では、ステップS1402で作成したヒストグラムを、図14の処理を前回実行したときに作成したヒストグラムと比較する。
In step S1401, the
ステップS1404では、ステップS1403で行った比較に基づいて、各小領域の評価を行う。すなわち、ヒストグラムに変化がない領域についてスコアを上昇させる演算を行う。ステップS1405では、車載用画像処理装置2000は、スコアが所定の閾値を超えた小領域を検出して、その小領域に関する情報(座標値)を異物認識部の認識結果SRD[d]として情報記憶部に記憶する。ここでSRDは汚れた小領域の座標情報であり、dは複数検出した場合のIDである。
In step S1404, each small region is evaluated based on the comparison performed in step S1403. That is, a calculation for increasing the score is performed for an area where there is no change in the histogram. In step S1405, the in-vehicle
[白線判定部]
つぎに、図16、図17、図18を用いて、白線判定部2061の一例に関する処理の内容について説明する。図16は本実施例における白線判定部2061の処理の流れを示したフローチャートである。まず、ステップS1501にて、路面輝度基準を用いて白線候補LC[n]の第一の信頼度LRLB1[n]を算出する。以下、第一の信頼度LRLB1[n]の算出方法について述べる。
[White line determination part]
Next, the contents of processing relating to an example of the white
図17、図18は第一の信頼度LRLB1[n]の算出の処理の流れを示したフローチャートである。各処理のうち、図7−1、図8−1に示した第一実施例における白線判定部1061と同様の箇所には同一の番号を付してその詳細な説明を省略する。
17 and 18 are flowcharts showing the flow of processing for calculating the first reliability LRLB1 [n]. Of each process, the same number is attached | subjected to the location similar to the white
ステップS7032にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_LNGPを算出する。
In step S7032, an error Err_LNGP between the luminance histogram HSTLC [n] inside the white line candidate LC [n] and the mixed Gaussian distribution model GP (G) set by the determination
つぎに、ステップS7042にて、誤差Err_LNGPに基づいて白線の第一の信頼度LRLB1[n]を算出する。本実施例では、誤差Err_LNGPの閾値TH_LNGP1、TH_LNGP2を、TH_LNGP1<TH_LNGP2となるように設定し、誤差Err_LNGP<TH_LNGP1であれば第一の信頼度LRLB1[n]=0.0、誤差Err_LNGP≧TH_LNGP2であれば第一の信頼度LRLB1[n]=1.0、その間は0.0〜1.0を線形補間するように設定する。 Next, in step S7042, the first reliability LRLB1 [n] of the white line is calculated based on the error Err_LNGP. In this embodiment, the threshold values TH_LNGP1 and TH_LNGP2 of the error Err_LNGP are set to satisfy TH_LNGP1 <TH_LNGP2, and if the error Err_LNGP <TH_LNGP1, the first reliability LRLB1 [n] = 0.0 and the error Err_LNGP ≧ LNGPLG If there is, the first reliability LRLB1 [n] = 1.0, and 0.0 to 1.0 is set so as to perform linear interpolation in the meantime.
図18は、路面が[複雑状態]であると判定された場合の本実施例における処理である。ステップS701で路面が複雑状態であると判断されると、ステップS7062に移動し、図18に示す処理が行われる。 FIG. 18 shows processing in this embodiment when it is determined that the road surface is [complex state]. If it is determined in step S701 that the road surface is in a complicated state, the process moves to step S7062, and the process shown in FIG. 18 is performed.
まず、ステップS801で白線候補の内側の輝度パターンを取得する。そして、ステップS8022にて、白線候補の輝度パターン、つまり俯瞰画像1015に対して白線候補を含むよう設定された領域内の画像の放射状の度合いを算出する。本実施例では、白線候補を含むよう設定された領域内の画像からエッジ角度を算出し、各画素のエッジ角度DE[x][y]と、各画素の位置とカメラ設置位置が成す角度DC[x][y]の誤差が閾値TH_DEDC以内である画素をカウントし、カウントした画素が領域の面積に占める割合RRを算出する。
First, in step S801, a luminance pattern inside a white line candidate is acquired. In step S8022, the brightness pattern of the white line candidate, that is, the radial degree of the image in the region set to include the white line candidate with respect to the
つぎに、ステップS8032にて、放射状エッジの割合RRに基づいて白線の第一の信頼度LRLB1[n]を算出する。本実施例では、放射状エッジの割合RRの閾値TH_RR1、TH_RR2を、TH_RR1<TH_RR2となるように設定し、放射状エッジの割合RR<TH_RR1であれば第一の信頼度LRLB1[n]=1.0、放射状エッジの割合RR>TH_RR2であれば第一の信頼度LRLB1[n]=0.0、その間は0.0〜1.0を線形補間するように設定する。以上の処理により、図16のステップS1501にて第一の信頼度LRLB1[n]が算出される。 In step S8032, the first reliability LRLB1 [n] of the white line is calculated based on the radial edge ratio RR. In this embodiment, the thresholds TH_RR1 and TH_RR2 of the radial edge ratio RR are set so that TH_RR1 <TH_RR2, and if the radial edge ratio RR <TH_RR1, the first reliability LRLB1 [n] = 1.0. If the ratio RR> TH_RR2 of the radial edges, the first reliability LRLB1 [n] = 0.0, and 0.0 to 1.0 is set so as to perform linear interpolation in the meantime. With the above processing, the first reliability LRLB1 [n] is calculated in step S1501 of FIG.
つぎに、ステップS1502にて、汚れ検出部2091の結果を用いて、白線の第二の信頼度LRLB2[n]を算出する。第二の信頼度LRLB2[n]は、検出した白線候補LC[n]と、汚れた小領域SRD[d]の位置関係より算出する。本実施例では、白線候補LC[n]の位置に、汚れた小領域SRD[d]が存在すれば第二の信頼度LRLB2[n]=0とし、白線候補LC[n]に最も近い汚れた小領域SRD[d]までの距離D_LCDが閾値TH_LCDより大きければ第二の信頼度LRLB2[n]=1.0とし、閾値TH_LCD以下の場合は距離に応じて0.0〜1.0を線形補間するように設定する。
In step S1502, the second reliability LRLB2 [n] of the white line is calculated using the result of the
つぎに、ステップS1503にて、第一の信頼度LRLB1[n]、第二の信頼度LRLB2[n]を用いて、白線の信頼度LRLB[n]を算出する。本実施例においては、第一の信頼度LRLB1[n]と第二の信頼度LRLB2[n]の平均値を用いることとする。算出後、白線候補LC[n]に付随する情報として白線の信頼度LRLB[n]を出力し、白線判定部2061での処理を終了する。
Next, in step S1503, the white line reliability LRLB [n] is calculated using the first reliability LRLB1 [n] and the second reliability LRLB2 [n]. In this embodiment, the average value of the first reliability LRLB1 [n] and the second reliability LRLB2 [n] is used. After the calculation, the white line reliability LRLB [n] is output as information accompanying the white line candidate LC [n], and the processing in the white
[駐車枠認識部]
つぎに、図19を用いて、駐車枠認識部2071の一例に関する処理の内容について説明する。
[Parking frame recognition unit]
Next, the contents of processing relating to an example of the parking
図19は本実施例における駐車枠認識部2071の処理の流れを示したフローチャートである。各処理のうち、図10に示した第一実施例における駐車枠認識部1071と同様の箇所には同一の番号を付してその詳細な説明を省略する。なお、第一実施例における駐車枠認識部1071では白線LN[m]を対象としたが、本実施例では白線候補LC[n]を対象とする。
FIG. 19 is a flowchart showing a processing flow of the parking
ステップS1901、ステップS1902が、第二実施の形態にて追加された処理である。ステップS1901では、選択した2本の線LC[nL]、LC[nR]の信頼度LRLB[nL]、LRLB[nR]がいずれも閾値ThRLB以上であるかを判定し、閾値以上であった場合はステップS102へ、閾値以下であった場合はステップS106へ移動する。 Steps S1901 and S1902 are processes added in the second embodiment. In step S1901, it is determined whether the reliability LRLB [nL] and LRLB [nR] of the two selected lines LC [nL] and LC [nR] are both equal to or greater than the threshold ThRLB. Moves to step S102, and if it is equal to or smaller than the threshold value, moves to step S106.
ステップS1902では、駐車枠PS[k]に、枠の四隅の座標情報のみならず、白線の信頼度のうち値が小さいものを駐車枠の信頼度PSRLB[k]として登録する。信頼度は、後述の駐車支援制御部2081にて用いる。
In step S1902, not only the coordinate information of the four corners of the frame but also the white line reliability having a smaller value is registered as the parking frame reliability PSRLB [k] in the parking frame PS [k]. The reliability is used by a parking
つぎに、駐車支援制御部2081の処理について説明する。図20は、駐車支援制御部2081の処理フローである。各処理のうち、図13に示した第一実施例における駐車支援制御部1081と同様の箇所には同一の番号を付してその詳細な説明を省略する。ステップS201、S202、S203が、第二実施の形態にて追加された処理である。
Next, processing of the parking
ステップS201にて、取得した駐車枠PS[k]の信頼度PSRLB[k]が閾値TH_PSRLB以上であるかを判定する。閾値TH_PSRLB以上である場合はステップS202へ移動し、閾値TH_PSRLBよりも小さい場合はステップS203へ移動する。 In step S201, it is determined whether the reliability PSRLB [k] of the acquired parking frame PS [k] is greater than or equal to a threshold value TH_PSRLB. If it is equal to or greater than the threshold value TH_PSRLB, the process moves to step S202, and if it is smaller than the threshold value TH_PSRLB, the process moves to step S203.
ステップS202では、信頼度が高い駐車場に対して、強い制御を実施する。本実施例では、ステアリング、アクセル、ブレーキすべての制御を実施して、目標の駐車枠へ駐車する支援を実施する。ステップS203では、信頼度が低い駐車場に対して、弱い制御を実施する。本実施例では、ステアリング、アクセル、ブレーキいずれか一つの制御を実施して、目標の駐車枠へ駐車する支援を実施する。 In step S202, strong control is performed on a parking lot with high reliability. In the present embodiment, the steering, the accelerator, and the brake are all controlled to assist the parking in the target parking frame. In step S203, weak control is performed on a parking lot with low reliability. In the present embodiment, any one of steering, accelerator, and brake is controlled to support parking in the target parking frame.
以上説明したように、本発明による判定結果から信頼度を算出し、同様に汚れ判定という別の判定結果からも信頼度を算出し、これらを統合することにより、信頼度に応じて駐車支援の度合いを変えることができる。 As described above, the reliability is calculated from the determination result according to the present invention, similarly, the reliability is also calculated from another determination result of the dirt determination, and these are integrated, so that the parking assistance is performed according to the reliability. The degree can be changed.
<第三実施の形態>
つぎに、本発明の車載用画像処理装置の第三実施の形態について、以下に図面を用いて説明する。
<Third embodiment>
Next, a third embodiment of the in-vehicle image processing apparatus of the present invention will be described below with reference to the drawings.
図21は、第三実施の形態における車載用画像処理装置3000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用画像処理装置1000、第二実施の形態における車載用画像処理装置2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
FIG. 21 is a block diagram illustrating a configuration of an in-vehicle
本実施の形態において特徴的なことは、障害物を検出対象としていることである。
車載用画像処理装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から対象物を検知するためのものであり、本実施の形態では、自車の前方の障害物を検知するように構成されている。
What is characteristic in the present embodiment is that an obstacle is a detection target.
The in-vehicle
車載用画像処理装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
The in-vehicle
車載用画像処理装置3000は、図21に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、障害物候補検出部3051と、障害物判定部3061と、さらに、車両制御部3081と、を有する。
As shown in FIG. 21, the in-vehicle
画像取得部1021は、図2に示すように、自車の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。
As shown in FIG. 2, the
路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、路面状態を推定する。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類を推定する。
The road surface
判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いて判定を行い、[複雑状態]の場合は画像のパターンを用いて判定を行う。
The determination
障害物候補検出部3051は、俯瞰画像1015から、障害物候補OBJC[i]を検出する。障害物判定部3061は、障害物候補OBJC[i]に対して、判定方法設定部1041で設定した判定基準に基づき、障害物OBJ[j]を決定する。さらに、車両制御部3081は、車載用画像処理装置3000と同一の車両に搭載されている制御装置内に搭載され、車載用画像処理装置3000から受信した障害物OBJ[j]の位置情報に基づいて、衝突を防止するための警報や、ブレーキ制御を実施する。
The obstacle
[障害物候補検出部]
障害物候補検出部3051の一例に関する処理の内容について説明する。
本実施例における障害物候補検出部3051は、画像以外のセンサを用いる場合と、俯瞰画像1015を用いる場合の2パターンが存在する。画像以外のセンサを用いる場合、例えばソナーセンサ等を用いて障害物を検出し、障害物の位置情報を取得する。つぎに、カメラ幾何情報を用いて、俯瞰画像1015上の位置を特定する。他に、例えば公知のパターンマッチ技術を用いて、画像から直接歩行者等の障害物を検出することもできる。この場合も、カメラ幾何情報を用いて、俯瞰画像1015上の位置を特定する。
[Obstacle candidate detection unit]
The contents of processing relating to an example of the obstacle
The obstacle
[白線判定部]
つぎに、図22、23を用いて、障害物判定部3061における処理の内容について説明する。
[White line judgment part]
Next, contents of processing in the
図22は、障害物判定部3061の処理の流れを示したフローチャートである。
まず、ステップS2201にて、路面状態推定部1031にて判定された路面が[複雑状態]であったかを確認する。複雑状態でなかった場合はステップS2202へ、複雑状態であった場合はステップS2206へと処理を移す。以下、ステップS2202からステップS2205までの処理は、障害物候補LC[i]の数だけ処理を繰り返す。
FIG. 22 is a flowchart showing a process flow of the
First, in step S2201, it is confirmed whether or not the road surface determined by the road surface
まず、ステップS2202にて、障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[i]を作成する。つぎに、ステップS703にて、障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[i]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_OBJGPを算出し、閾値TH_BOJGPと比較する。誤差Err_OBJGPが閾値TH_BOJGPより大きければ路面輝度基準に含まれないと判定し、ステップS2204へ移動し、誤差Err_OBJGPが閾値TH_BOJGP以下であれば路面輝度基準に含まれると判定し、ステップS2205へ移動する。
First, in step S2202, a luminance histogram HSTABJC [i] inside the obstacle candidate OBJC [i] is created. Next, in step S703, an error Err_OBJGP between the luminance histogram HSTABJC [i] inside the obstacle candidate OBJC [i] and the mixed Gaussian distribution model GP (G) set by the determination
ステップS2204では、障害物候補を障害物と判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーする。ステップS2205では、障害物候補は障害物ではないと判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーせず、消去する。ステップS2206では、次で説明する複雑状態であると判定された場合の処理に入る。 In step S2204, the obstacle candidate is determined to be an obstacle, and the information of the obstacle candidate OBJC [i] is copied to the obstacle OBJ [j]. In step S2205, it is determined that the obstacle candidate is not an obstacle, and the information on the obstacle candidate OBJC [i] is deleted without being copied to the obstacle OBJ [j]. In step S2206, the process when it is determined that the state is a complex state described below is entered.
図23は、路面状態が[複雑状態]であると判定された場合の処理である。ステップS2301からステップS2304までの処理は、障害物候補OBJC[i]の数だけ処理を繰り返す。 FIG. 23 shows a process when it is determined that the road surface state is [complex state]. The processing from step S2301 to step S2304 is repeated by the number of obstacle candidates OBJC [i].
まず、ステップS2301にて、障害物候補周辺の輝度パターン、つまり俯瞰画像1015に対して障害物候補のみを含む領域を設定する。つぎに、ステップS2302にて、俯瞰画像1015に対して障害物候補のみを含むよう設定された領域内の画像が放射状であるかを判定する。図2を用いて説明したように、俯瞰画像1015は上空からの仮想視点の画像である。よって、歩行者20が存在する場合、俯瞰変換前の画像では図24(a)のように写っている歩行者20が、図24(b)のように放射状に写りこむ。このパターンは俯瞰画像1015上におけるカメラ設置位置から放射状に延びるため、障害物候補のみを含むよう設定された領域内の画像がカメラ設置位置から放射状になっているか否かを判定することで、障害物候補が立体物か否かを見分けることができる。
First, in step S2301, a region including only an obstacle candidate is set for the luminance pattern around the obstacle candidate, that is, the
本実施例では、放射状であるかを判定する方法として、障害物候補のみを含むよう設定された領域内の画像からエッジ角度を算出し、各画素のエッジ角度DE[x][y]と、各画素の位置とカメラ設置位置が成す角度DC[x][y]の誤差が閾値TH_DEDC以内である画素をカウントし、カウントした画素が領域の面積に占める割合RROBJが閾値TH_RROBJ以上か否かに応じて判定する。閾値TH_DEDC、TH_RROBJはあらかじめ設定しておく。 In the present embodiment, as a method of determining whether the pixel is radial, an edge angle is calculated from an image in an area set to include only obstacle candidates, and the edge angle DE [x] [y] of each pixel is calculated. Pixels in which the error of the angle DC [x] [y] between the position of each pixel and the camera installation position is within the threshold TH_DEDC are counted, and whether or not the ratio RROBJ that the counted pixels occupy in the area of the area is greater than or equal to the threshold TH_RROBJ Judgment accordingly. The threshold values TH_DEDC and TH_RROBJ are set in advance.
ステップS2302にてRROBJが閾値TH_RROBJ以上であれば放射状でないと判定し、ステップS2304へ、閾値よりも小さければ放射状であると判定し、ステップS2303へ移動する。 If RROJ is greater than or equal to the threshold TH_RROBJ in step S2302, it is determined that it is not radial, and if it is less than the threshold, it is determined that it is radial, and the process moves to step S2303.
ステップS2303では、障害物候補を障害物と判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーする。ステップS2304では、障害物候補は障害物ではないと判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーせず、消去する。 In step S2303, the obstacle candidate is determined to be an obstacle, and the information of the obstacle candidate OBJC [i] is copied to the obstacle OBJ [j]. In step S2304, it is determined that the obstacle candidate is not an obstacle, and the information of the obstacle candidate OBJC [i] is not copied to the obstacle OBJ [j] but is deleted.
以上、障害物判定部3061において、障害物候補OBJC[i]の輝度と路面状態に応じた判定基準に基づいて、障害物候補OBJC[i]を障害物OBJ[j]に含めるか否かという処理を説明した。本実施例では、路面状態が[均一状態]、[多数色路面]であった場合には障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[b]と混合ガウス分布近似モデルGP(G)の誤差の大きさに基づいて障害物候補が障害物であるか否かを判定する。また、路面が[複雑状態]であった場合には、障害物候補OBJ[i]のみを含む領域の輝度パターンが放射状の特徴を持つ度合いに基づいて判定する。このような処理により、路面状態に応じた判定が可能となり、障害物の誤認識を防ぐことが可能となる。
As described above, whether or not the obstacle candidate OBJC [i] is included in the obstacle OBJ [j] in the
[車両制御部]
つぎに、図25を用いて、車両制御部3081における処理の内容について説明する。
まず、ステップS2501にて、車載用画像処理装置3000より障害物情報OBJ[j]から、自車からの相対距離PX[j]、PY[j]を取得する。障害物情報OBJ[j]は、車載用画像処理装置3000からの信号を制御装置へ直接入力することによって取得してもよいし、LANを用いた通信を行うことによって取得してもよい。
[Vehicle control unit]
Next, the contents of processing in the
First, in step S2501, relative distances PX [j] and PY [j] from the vehicle are acquired from the obstacle information OBJ [j] from the in-vehicle
以下、ステップS2502からS2505は、障害物数分だけ繰り返し処理を実施する。ステップS2502にて、障害物の位置PX[j]、PY[j]と1周期前の障害物の位置PX_z1[j]、PY_z1[j]との差分近似により算出する障害物との相対速度VX[j]、VY[j]を算出する。 Hereinafter, steps S2502 to S2505 are repeated for the number of obstacles. In step S2502, the relative speed VX with the obstacle calculated by the difference approximation between the obstacle positions PX [j] and PY [j] and the obstacle positions PX_z1 [j] and PY_z1 [j] of the previous cycle. [J] and VY [j] are calculated.
つぎに、ステップS2503にて、相対速度VX[j]、VY[j]が自車に向かってきているかを判定する。この判定は、例えば座標系として自車中心を原点とする座標系を考慮した場合に、障害物の位置PX[j]、PY[j]と自車の四隅を結ぶ直線の間に速度ベクトルの向きが入っているかを見ることで判定することができる。自車に向かってきている場合には、ステップS2504へ進み、向かってきていない場合は、ステップS2505へ進む。 Next, in step S2503, it is determined whether the relative speeds VX [j] and VY [j] are approaching the host vehicle. This determination is made, for example, when a coordinate system with the vehicle center as the origin is taken into consideration as a coordinate system, and the velocity vector between the obstacle positions PX [j], PY [j] and the straight lines connecting the four corners of the vehicle. This can be determined by looking at the orientation. If the vehicle is heading toward the host vehicle, the process proceeds to step S2504. If the vehicle is not heading, the process proceeds to step S2505.
ステップS2504では、衝突時間TTC[j]を算出する。TTC[j]は自車が障害物にあと何秒後に衝突するかを表すパラメータである。今回はステップS2503で自車方向へ向かってくる物体のみを扱うため、以下の式より求めることができる。
PL[j]=SQRT(PX[j]×PX[j]+PY[j]×PY[j])
VL[j]=SQRT(VX[j]×VX[j]+VY[j]×VY[j])
TTC[j]=PL[j]/VL[j]
In step S2504, the collision time TTC [j] is calculated. TTC [j] is a parameter indicating how many seconds after the own vehicle collides with the obstacle. In this case, since only an object heading toward the host vehicle is handled in step S2503, it can be obtained from the following equation.
PL [j] = SQRT (PX [j] × PX [j] + PY [j] × PY [j])
VL [j] = SQRT (VX [j] × VX [j] + VY [j] × VY [j])
TTC [j] = PL [j] / VL [j]
ここで、SQRT()は平方根を算出する関数である。
ステップS2505では、衝突の危険がないため、衝突時間TTC[j]に十分大きな値を代入する。本実施例ではTTC[j]=10000とする。
Here, SQRT () is a function for calculating the square root.
In step S2505, since there is no danger of a collision, a sufficiently large value is substituted for the collision time TTC [j]. In this embodiment, TTC [j] = 10000.
つぎに、ステップS2506にて、TTC[j]のうち最小衝突時間TTCMINを抽出する。つぎに、ステップS2507にて、最小衝突時間TTCMINと閾値TH_TTCBRKを比較する。最小衝突時間TTCMINが閾値TH_TTCBRK以下の場合はステップS2508へ移動し、車両のブレーキ制御を実行する。一方、最小衝突時間TTCMINが閾値TH_TTCBRKより大きい場合はステップS2509へ移動する。 Next, in step S2506, the minimum collision time TTCMIN is extracted from TTC [j]. Next, in step S2507, the minimum collision time TTCMIN is compared with the threshold value TH_TTCBRK. If the minimum collision time TTCMIN is less than or equal to the threshold value TH_TTCBRK, the process moves to step S2508 to execute vehicle brake control. On the other hand, if the minimum collision time TTCMIN is greater than the threshold value TH_TTCBRK, the process moves to step S2509.
ステップS2509では、最小衝突時間TTCMINと閾値TH_TTCALMを比較する。最小衝突時間TTCMINが閾値TH_TTCALM以下の場合はステップS2510へ移動し、車両の警報装置を動作させ、運転者へ注意喚起を実施する。一方、最小衝突時間TTCMINが閾値TH_TTCALMより大きい場合は車両制御部3081の処理を終了する。以上説明したように、車載用画像処理装置3000にて検出した障害物情報に応じて、上記警報やブレーキ制御を発動させることができる。
In step S2509, the minimum collision time TTCMIN is compared with the threshold value TH_TTCALM. When the minimum collision time TTCMIN is less than or equal to the threshold value TH_TTCALM, the process moves to step S2510, the vehicle alarm device is operated, and the driver is alerted. On the other hand, if the minimum collision time TTCMIN is greater than the threshold value TH_TTCALM, the processing of the
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. Furthermore, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
1000 車載用画像処理装置
1001〜1004 カメラ
1021 画像取得部
1031 路面状態推定部
1041 判定方法設定部
1051 白線候補検出部
1061 白線判定部
1071 駐車枠認識部
1081 駐車支援制御部
2000 車載用画像処理装置
2091 汚れ検出部
2061 白線判定部
2071 駐車枠認識部
2081 駐車支援制御部
3000 車載用画像処理装置
3051 障害物候補検出部
3061 障害物判定部
3081 車両制御部
1000 In-vehicle
Claims (7)
自車周囲を撮像した画像を取得する画像取得部と、
該画像の自車近傍領域の輝度分布に基づいて自車周囲の路面状態が予め設定された複数の路面状態のいずれに属するのかを推定する路面状態推定部と、
該推定された路面状態に応じて対象物の判定方法を設定する判定方法設定部と、
前記画像から前記対象物と推定される対象物候補を検出する対象物候補検出部と、
前記判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する対象物判定部と、
を有し、
前記路面状態推定部は、前記輝度分布が1または2のガウス分布にて近似できるか否かに基づいて前記路面状態が前記複数の路面状態のうちの複雑状態であるか否かを推定し、
前記判定方法設定部は、前記路面状態推定部により前記路面状態が前記複雑状態であると推定された場合に、前記対象物候補の輝度パターンが放射状か否かに基づいて判定する判定方法を設定する
ことを特徴とする車載用画像処理装置。 An in-vehicle image processing device that detects an object on a road surface,
An image acquisition unit for acquiring an image of the surroundings of the vehicle;
A road surface state estimation unit for estimating which road surface state around the vehicle belongs to one of a plurality of preset road surface states based on the luminance distribution in the vehicle vicinity region of the image;
A determination method setting unit that sets a determination method of an object according to the estimated road surface state;
An object candidate detection unit for detecting an object candidate estimated as the object from the image;
An object determination unit that determines whether or not the object candidate is the object using the determination method;
I have a,
The road surface state estimation unit estimates whether the road surface state is a complex state of the plurality of road surface states based on whether the luminance distribution can be approximated by a Gaussian distribution of 1 or 2.
The determination method setting unit sets a determination method for determining based on whether or not the brightness pattern of the target object is radial when the road surface state estimation unit estimates that the road surface state is the complex state. An in-vehicle image processing apparatus.
前記判定方法設定部は、前記路面状態が均一状態であると判定された場合に前記輝度分布から単一の輝度範囲を判定基準として前記対象物を判定する判定方法を設定することを特徴とする請求項1に記載の車載用画像処理装置。 The road surface state estimation unit determines whether the luminance distribution of the image is a uniform state that can be approximated to a single Gaussian distribution having a peak of 1,
The determination method setting unit sets a determination method for determining the object based on a single luminance range as a determination criterion from the luminance distribution when it is determined that the road surface state is a uniform state. The in-vehicle image processing apparatus according to claim 1 .
前記判定方法設定部は、前記路面状態が前記反射状態であると判定された場合に前記対象物候補の輝度パターンが放射状か否かに基づいて判定する判定方法を設定することを特徴とする請求項3に記載の車載用画像処理装置。 The road surface state estimation unit determines whether the road surface state is a reflection state or a light / dark separation state based on a road surface pattern when the luminance distribution of the image can be approximated to a mixed Gaussian distribution having two peaks. ,
The determination method setting unit, wherein said road surface condition and sets a determination method based on whether luminance pattern of the object candidate or radially when it is determined that the a reflective state Item 4. The on-vehicle image processing device according to Item 3 .
前記判定方法設定部は、前記日陰日向状態であると判定された場合に、予め設定された日向路面輝度基準と日陰路面輝度基準を判定基準として前記対象物を判定する判定方法を設定し、
前記対象物判定部は、前記日陰日向状態であると判定された場合に、前記判定方法により、前記対象物候補の内側輝度分布が前記日向路面輝度基準に含まれており、かつ前記対象物候補の外側輝度分布が前記日陰路面輝度基準に含まれているときは前記対象物候補が前記対象物ではないと判定し、前記対象物候補の内側輝度分布が前記日向路面輝度基準に含まれていない、又は前記対象物候補の外側輝度分布が前記日陰路面輝度基準に含まれていないときは前記対象物候補が前記対象物であると判定することを特徴とする請求項5に記載の車載用画像処理装置。 When the road surface state estimation unit determines that the road surface state is the light / dark separation state, the road surface state determination unit determines whether or not the road surface state is a shaded and sunny state in which a shadow of the vehicle is reflected in the image,
The determination method setting unit sets a determination method for determining the object based on a predetermined sun road surface luminance reference and a shade road surface luminance reference as a determination reference when the shade method is determined to be in the shaded sun state.
When it is determined that the object determination unit is in the shaded and sunny state, the object method includes an inner luminance distribution of the object candidate included in the sun road surface luminance reference, and the object candidate. Is determined to be not the target object, and the inner luminance distribution of the target candidate is not included in the sunny road surface brightness reference. 6. The vehicle-mounted image according to claim 5 , wherein when the outer luminance distribution of the object candidate is not included in the shade road surface luminance reference, the object candidate is determined to be the object. Processing equipment.
前記路面状態推定部により前記路面状態が複雑状態であると推定された場合には、前記対象物候補の内側輝度分布における放射状エッジの割合に基づいて、複雑状態であると推定されなかった場合には、前記対象物候補の内側輝度分布と混合ガウス分布モデルとの誤差に基づいて第一の信頼度を算出する第一の信頼度算出部と、
前記レンズ汚れ検出部にて検出されたレンズ汚れ位置に基づいて第二の信頼度を算出する第二の信頼度算出部を有し、
前記対象物判定部は、前記第一の信頼度および第二の信頼度に基づいて前記対象物候補が前記対象物であるか否かを判定することを特徴とする請求項1に記載の車載用画像処理装置。 A lens dirt detector for detecting the position of the camera lens dirt,
When the road surface state estimation unit estimates that the road surface state is a complex state, based on the ratio of radial edges in the inner luminance distribution of the object candidate, when it is not estimated to be a complex state A first reliability calculation unit that calculates a first reliability based on an error between the inner luminance distribution of the object candidate and a mixed Gaussian distribution model ;
A second reliability calculation unit that calculates a second reliability based on the lens contamination position detected by the lens contamination detection unit ;
The on-vehicle object according to claim 1, wherein the object determination unit determines whether or not the object candidate is the object based on the first reliability and the second reliability. Image processing device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014057391A JP6313081B2 (en) | 2014-03-20 | 2014-03-20 | In-vehicle image processing apparatus and vehicle system using the same |
PCT/JP2015/050507 WO2015141247A1 (en) | 2014-03-20 | 2015-01-09 | In-vehicle image processing device and vehicle system using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014057391A JP6313081B2 (en) | 2014-03-20 | 2014-03-20 | In-vehicle image processing apparatus and vehicle system using the same |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015179482A JP2015179482A (en) | 2015-10-08 |
JP2015179482A5 JP2015179482A5 (en) | 2016-08-18 |
JP6313081B2 true JP6313081B2 (en) | 2018-04-18 |
Family
ID=54144227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014057391A Active JP6313081B2 (en) | 2014-03-20 | 2014-03-20 | In-vehicle image processing apparatus and vehicle system using the same |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6313081B2 (en) |
WO (1) | WO2015141247A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6091586B1 (en) * | 2015-11-12 | 2017-03-08 | 三菱電機株式会社 | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM |
DE102016211227A1 (en) * | 2016-06-23 | 2017-12-28 | Conti Temic Microelectronic Gmbh | Method and vehicle control system for generating images of an environment model and corresponding vehicle |
JP6773540B2 (en) * | 2016-12-07 | 2020-10-21 | クラリオン株式会社 | In-vehicle image processing device |
JP6789151B2 (en) * | 2017-02-24 | 2020-11-25 | 京セラ株式会社 | Camera devices, detectors, detection systems and mobiles |
JP6847709B2 (en) * | 2017-02-24 | 2021-03-24 | 京セラ株式会社 | Camera devices, detectors, detection systems and mobiles |
JP6672202B2 (en) * | 2017-03-03 | 2020-03-25 | 株式会社デンソーアイティーラボラトリ | In-vehicle camera system, attached matter detection device, attached matter removal method, and attached matter detection program |
US11535152B2 (en) | 2017-09-29 | 2022-12-27 | Hitachi Astemo, Ltd. | Parking support device |
US11518390B2 (en) * | 2018-04-16 | 2022-12-06 | Mitsubishi Electric Corporation | Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method |
JP7230658B2 (en) * | 2019-04-16 | 2023-03-01 | 株式会社デンソー | Image processing device |
CN112541464A (en) * | 2020-12-21 | 2021-03-23 | 北京百度网讯科技有限公司 | Method and device for determining associated road object, road side equipment and cloud control platform |
JP2023174087A (en) | 2022-05-27 | 2023-12-07 | 株式会社Subaru | Stop line recognition device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3065418B2 (en) * | 1992-01-08 | 2000-07-17 | 富士通株式会社 | Image processing apparatus and method |
JP3800992B2 (en) * | 2001-06-06 | 2006-07-26 | 日産自動車株式会社 | Lane tracking control device |
JP4941843B2 (en) * | 2008-02-28 | 2012-05-30 | 日本電気株式会社 | Road marking image processing apparatus, road marking image processing method, and road marking image processing program |
JP5321267B2 (en) * | 2009-06-16 | 2013-10-23 | 日産自動車株式会社 | Vehicular image display device and overhead image display method |
JP5761601B2 (en) * | 2010-07-01 | 2015-08-12 | 株式会社リコー | Object identification device |
CN104520913B (en) * | 2012-07-03 | 2016-12-07 | 歌乐株式会社 | Vehicle environment identification device |
-
2014
- 2014-03-20 JP JP2014057391A patent/JP6313081B2/en active Active
-
2015
- 2015-01-09 WO PCT/JP2015/050507 patent/WO2015141247A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2015179482A (en) | 2015-10-08 |
WO2015141247A1 (en) | 2015-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6313081B2 (en) | In-vehicle image processing apparatus and vehicle system using the same | |
CN109844762B (en) | In-vehicle image processing apparatus | |
CN108960183B (en) | Curve target identification system and method based on multi-sensor fusion | |
CN106485233B (en) | Method and device for detecting travelable area and electronic equipment | |
JP4420011B2 (en) | Object detection device | |
JP5283967B2 (en) | In-vehicle object detection device | |
US7046822B1 (en) | Method of detecting objects within a wide range of a road vehicle | |
US10984557B2 (en) | Camera calibration using traffic sign recognition | |
EP2521111B1 (en) | Road-shoulder detecting device and vehicle using road-shoulder detecting device | |
US20180099663A1 (en) | Vehicle with environmental context analysis | |
US10699567B2 (en) | Method of controlling a traffic surveillance system | |
TW201704067A (en) | Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system | |
JP6547785B2 (en) | Target detection device | |
US10752223B2 (en) | Autonomous emergency braking system and method for vehicle at crossroad | |
CN109827516B (en) | Method for measuring distance through wheel | |
JP2006031162A (en) | Moving obstacle detection device | |
KR101448506B1 (en) | Measurement Method and Apparatus for Measuring Curvature of Lane Using Behavior of Preceding Vehicle | |
Suzuki et al. | Sensor fusion-based pedestrian collision warning system with crosswalk detection | |
JP2018048949A (en) | Object recognition device | |
CN114415171A (en) | Automobile travelable area detection method based on 4D millimeter wave radar | |
JP2002334330A (en) | Vehicle recognition device | |
KR101568745B1 (en) | Vehicle assistant apparatus and method based on infrared images | |
CN114537447A (en) | Safe passing method and device, electronic equipment and storage medium | |
CN113432615A (en) | Detection method and system based on multi-sensor fusion drivable area and vehicle | |
JP3586938B2 (en) | In-vehicle distance measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6313081 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |