JP5152002B2 - Lane recognition device and lane recognition method - Google Patents
Lane recognition device and lane recognition method Download PDFInfo
- Publication number
- JP5152002B2 JP5152002B2 JP2009007335A JP2009007335A JP5152002B2 JP 5152002 B2 JP5152002 B2 JP 5152002B2 JP 2009007335 A JP2009007335 A JP 2009007335A JP 2009007335 A JP2009007335 A JP 2009007335A JP 5152002 B2 JP5152002 B2 JP 5152002B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- road
- candidate
- lane
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、道路上の車線を認識する車線認識装置およびその方法に関する。 The present invention relates to a lane recognition device and method for recognizing a lane on a road.
従来より、撮像画像に基づいて道路鋲を検出することにより、車線を認識する手法が知られている。この道路鋲は、例えば、ボッツドッツ(Botts Dots)やキャッツアイといった類のものであり、道路上に離散的に配置されている。 Conventionally, a method of recognizing a lane by detecting a roadway based on a captured image is known. The road fence is, for example, a thing such as Botts Dots or Cats Eye, and is discretely arranged on the road.
道路鋲は、撮像画像上の形状が、日照時の光の当り方等の照明環境によって変化する。そこで、例えば、特許文献1には、撮像画像に対してモルフォロジー演算を行うことにより、照明環境に拘わらず検出精度の向上を図る装置が開示されている。
The shape of the road fence changes depending on the lighting environment such as how the light hits during sunshine. Thus, for example,
しかしながら、特許文献1に開示された手法によれば、水平方向の任意の1ライン(走査線)における対象物の幅をもとにノイズを除去するため、道路鋲が除去されたり、逆にノイズを除去しきれなかったりという不都合がある。そのため、安定して道路鋲を検出することができないという問題点があった。
However, according to the technique disclosed in
本発明はかかる事情に鑑みてなされたものであり、その目的は、道路鋲を精度よく検出することである。 The present invention has been made in view of such circumstances, and an object thereof is to detect a roadway with high accuracy.
かかる課題を解決するために、本発明は、走行路面を撮像した撮像画像内の輝度的なエッジを抽出したエッジ画像を生成し、このエッジ画像において、エッジとして抽出された領域である候補領域に対してこの領域を全方位に膨張させる。このとき、道路鋲に対応する候補領域が、非道路鋲に対応する候補領域と連結しない程度に候補領域を膨張させる。そして、膨張された候補領域を処理対象として、アスペクト比および面積に基づいて、道路上の車線を画定する道路鋲を検出し、これにより、検出された道路鋲に基づいて、道路上の車線を認識する。 In order to solve such a problem, the present invention generates an edge image obtained by extracting a luminance edge in a captured image obtained by imaging a traveling road surface, and in this edge image, a candidate area which is an area extracted as an edge is generated. On the other hand, this region is expanded in all directions. At this time, the candidate area is expanded to such an extent that the candidate area corresponding to the road fence is not connected to the candidate area corresponding to the non-road fence. Then, the road candidate defining the lane on the road is detected based on the aspect ratio and the area with the expanded candidate area as a processing target, and thereby the lane on the road is determined based on the detected road fence. recognize.
本発明によれば、全方向への膨張処理によって、道路鋲と、それ以外の要素とを面積的かつ形状的(アスペクト比)に明確に切り分けることができる。これにより、道路鋲を有効に検出することができる。 According to the present invention, the road fence and other elements can be clearly separated in terms of area and shape (aspect ratio) by expansion processing in all directions. Thereby, a roadway can be detected effectively.
(第1の実施形態)
図1は、本発明の第1の実施形態にかかる車線認識装置1を概略的に示す構成図である。本実施形態にかかる車線認識装置1は、画像処理を用いて、道路に設けられた道路鋲を検出することにより、車線を認識する装置である。この車線認識装置1は、コントロールユニット10と、画像メモリ20と、カメラ30を主体に構成されており、コントロールユニット10は、画像メモリ20を介してカメラ30と接続されている。なお、本明細書において、道路鋲という用語は、例えば、ボッツドッツ、リフレクタ、キャッツアイといったように、車線を画定するために道路上に離散的に配置されるものを総称する用語として用いる。
(First embodiment)
FIG. 1 is a configuration diagram schematically showing a
コントロールユニット10は、後述する画像メモリ20に格納される1フレーム相当の撮像画像を読み込むとともに、この撮像画像に基づいて道路鋲を検出することにより車線を認識する。コントロールユニット10としては、例えば、CPU、ROM、RAM、I/Oインターフェースを主体に構成されたマイクロコンピュータを用いることができる。また、コントロールユニット10には、車載LANが接続されており、コントロールユニット10は、この車載LANを通じて、ヘッドライト31(図2参照)が点灯状態であるかそれとも消灯状態であるかを検出することができる。
The
コントロールユニット10は、これを機能的に捉えた場合、候補画像生成部11と、道路鋲検出部12と、歪み補正部13と、車線認識部14と、撮像範囲変更部15とを有している。候補画像生成部11は、画像メモリ20に入力される撮像画像、すなわち、カメラ30によって撮像された撮像画像内の輝度的なエッジが抽出されたエッジ画像を生成する(第1の処理手段)。また、候補画像生成部11は、生成されたエッジ画像において、エッジとして抽出された領域である候補領域(本実施形態では、後述する白色領域)に対して、この領域を全方位に膨張させる膨張処理を行うことにより、膨張画像を生成する。
The
道路鋲検出部12は、生成された膨張画像において、白色領域に関するアスペクト比および面積に基づいて、道路上の車線を画定する道路鋲を検出する(道路鋲検出手段)。歪み補正部13は、カメラ30に起因する歪曲収差を補正する。車線認識部14は、検出された道路鋲に基づいて、道路上の車線を認識する。撮像範囲変更部15は、ヘッドライト31の点灯状態に応じてカメラ30による撮像範囲を調整する(調整手段)。
The road
画像メモリ20は、カメラ30で撮像された撮像画像が入力される機能を担っており(画像入力手段)、RAMにより構成されるフレームメモリを備えている。画像メモリ20は、カメラ30から出力される1フレーム分の撮像画像(デジタル映像)を記憶可能な容量を有する。カメラ30によって撮像された撮像画像は、フレーム毎に、画像メモリ20に格納される。
The
カメラ30は、光学系およびイメージセンサ(例えば、CCDまたはCMOSセンサ等)を主体に構成される撮像手段であり、所定の輝度階調(例えば、256階調のグレースケール)のデジタル映像を作成する。カメラ30は、デジタル化された1フレーム分の撮像画像を画像メモリ20に出力する。図2に示すように、カメラ30は、例えば、車両Cのルームミラーの近傍に取り付けられており、車両C前方の道路(走行路面)を含む景色を撮像する。
The
図3は、本実施形態にかかる車線認識処理の手順を示すフローチャートである。このフローチャートに示す処理は、所定の周期で呼び出され、コントロールユニット10によって実行される。
FIG. 3 is a flowchart showing a procedure of lane recognition processing according to the present embodiment. The processing shown in this flowchart is called at a predetermined cycle and executed by the
まず、ステップ1(S1)において、候補画像生成部11は、画像メモリ20から1フレーム相当の撮像画像を読み込むとともに、当該撮像画像を処理対象として微分処理を行い、微分画像を生成する。具体的には、候補画像生成部11は、例えば、sobelフィルタなどの微分オペレータを用いて撮像画像に空間微分処理を施すことにより微分画像を作成する。この微分画像は、撮像画像を構成する各画素に関するエッジ強度を示す画像である。
First, in step 1 (S1), the candidate
ステップ2(S2)において、候補画像生成部11は、生成された微分画像を処理対象として、2値化処理を行う。具体的には、候補画像生成部11は、微分画像、すなわち、各画素毎に、エッジ強度に対して所定の閾値を用いて2値化を行うことによりエッジ画像を生成する。例えば、候補画像生成部11は、閾値以上のエッジ強度を有する画素を白色に変換し、閾値よりも小さなエッジ強度を有する画素を黒色に変換する。
In step 2 (S2), the candidate
図4は、エッジ画像の一例を模式的に示す説明図である。なお、同図に示す例では、説明の便宜上、白色と黒色とを反転させた状態、すなわち、2値化された黒色に対応する部分が白色で描かれ、2値化された白色に対応する部分が黒色で描かれている(以下に示す図面についても同様)。同図に示すように、エッジ画像では、例えば、ボッツドッツS1、リフレクタS2、白線S3、路面汚れS4、先行車S5等の輪郭に対応して、エッジとして抽出された領域(候補領域)が白色、それ以外の領域が黒色として表される。 FIG. 4 is an explanatory diagram schematically illustrating an example of an edge image. In the example shown in the figure, for convenience of explanation, a state in which white and black are reversed, that is, a portion corresponding to binarized black is drawn in white and corresponds to binarized white. The portion is drawn in black (the same applies to the drawings shown below). As shown in the figure, in the edge image, for example, a region (candidate region) extracted as an edge corresponding to the contours of the botsdots S1, the reflector S2, the white line S3, the road surface dirt S4, the preceding vehicle S5, etc. is white, Other areas are represented as black.
ステップ3(S3)において、候補画像生成部11は、モルフォロジー演算などを用いて膨張処理を行うことにより、エッジ画像に含まれる白色領域(候補領域)を全方向に膨張させた膨張画像を作成する。具体的には、この膨張処理は、エッジ画像において、白色に対応する画素のそれぞれを処理対象として、当該画素の周囲に存在する画素群(例えば、処理対象画素の周囲に存在する8画素、あるいは、処理対象画素の周囲に存在する8画素および当該8画素の周囲に存在する16画素の計24画素)の2値属性を白色へと設定する。膨張させる画素数は、道路鋲に対応する白色領域が、道路鋲以外の他の要素(非道路鋲)に対応する白色領域と連結しない程度に、かつ、路面汚れS4を含むノイズ要素に対応する白色領域同士が互いに連結する程度に実施することが望ましく、実験やシミュレーションを通じてその最適値が設定されている。例えば、ボッツドッツS1などはエッジ画像においてリング状の領域として表されるが、これを全方位に膨張させることにより、膨張画像では、リング状の内周部分が白色によって埋められるとともに、外周側へと拡大された円状の領域として表される。
In step 3 (S3), the candidate
ステップ4(S4)において、道路鋲検出部12は、膨張画像を処理対象として、連続する一群の白色領域をそれぞれ検出する。具体的には、道路鋲検出部12は、膨張画像を走査することにより、一塊となった白色領域をそれぞれ検出する。道路鋲検出部12は、検出された白色領域のそれぞれについて、面積と、アスペクト比と、代表点の座標とを算出する。例えば、図5に示す白色領域Soでは、面積は11画素であり、アスペクト比は(yb−yt)/(xr−xl)で算出される。ここで、ytは、白色領域Soの最上点のy座標、ybは最下点のy座標、xlは最左点のx座標、xrは最右点のx座標である。また、代表点は白色領域上の任意の点(例えば、重心)に設定することができるが、すべての白色領域Soに対して同一基準で決定する必要がある。
In step 4 (S4), the road
ステップ5(S5)において、道路鋲検出部12は、検出された白色領域Soのそれぞれを処理対象として、面積およびアスペクト比が所定の範囲内にある白色領域Soを道路鋲領域として抽出する(フィルタリング処理)。具体的には、道路鋲検出部12は、面積Sおよびアスペクト比Aが、下式の条件を満たす白色領域Soを道路鋲領域として抽出する。
In step 5 (S5), the road
(数式1)
SL≦S≦SH
AL≦A≦AH
ここで、SLは、抽出対象とする白色領域Soの面積Sに対する下限値であり、SHは、その上限値である。また、ALは、抽出対象とする白色領域Soのアスペクト比Aに対する下限値であり、AHは、その上限値である。これらの各パラメータSL,SH,AL,AHは、カメラ30によって映し出される道路鋲の撮像画像上の特性を考慮した上で、実験やシミュレーションを通じてその最適値がそれぞれ設定されている。
(Formula 1)
SL ≦ S ≦ SH
AL ≦ A ≦ AH
Here, SL is a lower limit value with respect to the area S of the white region So to be extracted, and SH is an upper limit value thereof. AL is a lower limit value with respect to the aspect ratio A of the white area So to be extracted, and AH is an upper limit value thereof. These parameters SL, SH, AL, and AH are set to optimum values through experiments and simulations, taking into account the characteristics on the picked-up image of the road surface projected by the
また、自車両の近くに位置する道路鋲に対応する白色領域Soの面積Sは大きく、遠方に位置する道路鋲に対応する白色領域Soの面積Sは小さい傾向となる。そこで、白色領域Soのy座標が小さい、すなわち、白色領域Soが画像上部に位置する場合は、面積Sに関する上下限値SL,SHを小さく調整してもよい。また、白色領域Soのy座標が大きい、すなわち、白色領域Soが画像下部に位置する場合は、面積Sに関する上下限値SL,SHを大きく調整してもよい。 Further, the area S of the white area So corresponding to the road fence located near the host vehicle tends to be large, and the area S of the white area So corresponding to the road fence located far away tends to be small. Therefore, when the y coordinate of the white area So is small, that is, when the white area So is positioned at the upper part of the image, the upper and lower limit values SL and SH regarding the area S may be adjusted to be small. When the y coordinate of the white area So is large, that is, when the white area So is located at the lower part of the image, the upper and lower limit values SL and SH regarding the area S may be adjusted to be large.
ステップ6(S6)において、歪み補正部13は、アフィン変換などの手法を用いて、ステップ5において抽出された道路鋲領域について代表点座標に含まれる歪曲収差を幾何学的に補正する。これにより、道路鋲領域について、カメラ30の光学系などに起因する歪み等の影響が抑制された代表点座標が新たに得られる。
In step 6 (S6), the
ステップ7(S7)において、車線認識部14は、それぞれの道路鋲領域に関する代表点座標に基づいて、道路形状、すなわち、車線を認識する。具体的には、車線認識部14は、それぞれの道路鋲領域に関する代表点座標について、最小二乗法などを用いて直線回帰を行うことにより、車線の認識を行う。
In step 7 (S7), the
図6は、車両のヘッドライト31を点灯した状態における撮像画像を模式的に示す説明図である。また、夜間においては自車両のヘッドライトの点灯により撮像画像内の照度差が大きくなる。シェーディング補正等によりある程度の照度差を補正することは可能であるが、カメラのダイナミックレンジの不足等により補正にも限界がある。同図に示すように、通常の撮像範囲(最も外側の矩形の枠)に対して、自車両のヘッドライト31が照射する範囲は、図中の枠S5に対応する。そのため、枠S5内に存在する道路鋲S6および周辺路面は、被写体が真っ白に塗りつぶされてしまう現象、いわゆる、白飛びを起こしてしまいエッジ検出が困難となる。一方、ヘッドライト31の照射範囲(枠S5)の外に存在する道路鋲S7および周辺路面は照度不足のためエッジの検出が困難となる。
FIG. 6 is an explanatory diagram schematically showing a captured image in a state where the
そこで、撮像範囲変更部15は、車載LANを通じてヘッドライト31の状態を取得し、点灯状態の時にはカメラ30の撮像範囲を枠CAに変更する。この枠CAは、カメラ30の撮像範囲が、ヘッドライト31の照射範囲(枠S5)をほぼ含むように設定されている。なお、その際、撮像範囲変更部15は、露出補正等に用いる測光領域も撮像範囲同様に変更する。
Therefore, the imaging
このように本実施形態において、候補画像生成部11は、カメラ30によって撮像された撮像画像を処理対象として微分処理および2値化処理を行うことにより、エッジ画像を生成する。また、候補画像生成部11は、生成されたエッジ画像において、候補領域となる白色領域に対してこの領域を全方位に膨張させる膨張処理を行い、膨張画像を生成する。道路鋲検出部12は、生成された膨張画像において、白色領域に関するアスペクト比および面積に基づいて、道路鋲を検出する。車線認識部14は、検出された道路鋲に基づいて、道路上の車線を認識する。
Thus, in the present embodiment, the candidate
かかる構成によれば、全方向への膨張処理によって、道路鋲と、それ以外の要素とを面積的かつ形状的(アスペクト比)に明確に切り分けることができる。これにより、ノイズを除去しつつ、道路鋲を有効に検出することができる。 According to such a configuration, the road fence and other elements can be clearly separated in terms of area and shape (aspect ratio) by expansion processing in all directions. As a result, it is possible to effectively detect a roadway while removing noise.
また、本実施形態において、候補画像生成部11は、道路鋲に対応する白色領域が、非道路鋲に対応する白色領域と連結しない程度に、かつ、ノイズ要素に対応する白色領域同士が互いに連結する程度に膨張処理を行う。かかる構成によれば、路面汚れ等のノイズ領域同士を連結させ、その面積・アスペクト比を道路鋲のそれと大きく異なるものへと変形させることできる。これにより、道路鋲を有効に検出することが可能となる。
In the present embodiment, the candidate
また、本実施形態において、道路鋲検出部12は、膨張画像における白色領域の位置に応じて、道路鋲を検出するための面積閾値SL,SHを可変に設定する。かかる構成によれば、路面汚れの目立つ自車両近接領域(画像下部側)では面積に対する閾値SL,SHを大きく設定することで、ノイズの除去を促進することができる。また、路面汚れの目立たない遠方領域(画像上部側)では面積に対する閾値を小さく設定することで、小さく映る道路鋲の抽出を促進することができる。
Further, in the present embodiment, the road
また、本実施形態において、撮像範囲変更部15は、車両のヘッドライト31の点灯状態に応じてカメラ30による撮像範囲を調整する。かかる構成によれば、撮像範囲を自車両のライトの照射範囲に限定することで撮像画像内の照度差を抑えることができるので、道路鋲の検出精度を向上させることができる。
Moreover, in this embodiment, the imaging
なお、道路鋲としてのボッツドッツとキャッツアイとのアスペクト比の差は殆ど変わらないことが発明者等の実験によって明らかとなっている。そのため、アスペクト比Aの下限値ALと上限値AHとのそれぞれの値には、ボッツドッツとキャッツアイとに対応して差を設定しなくとも、共通したパラメータで両者を道路鋲として検出することが可能である。 In addition, it has been clarified by experiments by the inventors that the difference in aspect ratio between the botsdots and cat's eyes as a roadway is almost the same. Therefore, even if the difference between the lower limit value AL and the upper limit value AH of the aspect ratio A is not set corresponding to the botsdots and the cat's eye, both can be detected as road traps using common parameters. Is possible.
(第2の実施形態)
図7は、本発明の第2の実施形態にかかる車線認識装置1を概略的に示す構成図である。本実施形態にかかる車線認識装置1が第1の実施形態と相違する点は、マスク画像を生成する点である。以下、第1の実施形態と共通する構成については符号を引用して重複する説明は省略することとし、以下、相違点を中心に説明を行う。
(Second Embodiment)
FIG. 7 is a configuration diagram schematically showing a
本実施形態の車線認識装置1は、第1の実施形態と同様、コントロールユニット10と、画像メモリ20とを主体に構成されており、コントロールユニット10は、画像メモリ20を介してカメラ30と接続されている。
As in the first embodiment, the
コントロールユニット10は、これを機能的に捉えた場合、マスク画像生成部16と、候補画像生成部11と、道路鋲検出部12と、歪み補正部13と、車線認識部14とを有している。ここで、候補画像生成部11、道路鋲検出部12、歪み補正部13および車線認識部14は、第1の実施形態と同様である。また、本実施形態では、撮像範囲変更部15を備えていないが、これを有する構成であってもよい。
The
マスク画像生成部(第1の処理手段)16は、画像メモリ20に入力される撮像画像を処理対象として2値化処理を行い、2値化処理後の画像について全方向への膨張処理を行うことによりマスク画像を生成する。なお、本実施形態において、候補画像生成部11は、膨張画像に対してマスク画像を用いてマスク処理を行う。
The mask image generation unit (first processing means) 16 performs binarization processing on the captured image input to the
図8は、本実施形態にかかる車線認識処理の手順を示すフローチャートである。このフローチャートに示す処理は、所定の周期で呼び出され、コントロールユニット10によって実行される。
FIG. 8 is a flowchart showing a procedure of lane recognition processing according to the present embodiment. The processing shown in this flowchart is called at a predetermined cycle and executed by the
まず、ステップ10(S10)において、マスク画像生成部16は、画像メモリ20から1フレーム相当の撮像画像を読み込むとともに、当該撮像画像を処理対象として2値化処理を行い、2値画像を生成する。具体的には、マスク画像生成部16は、撮像画像、すなわち、各画素毎に、輝度に対して所定の閾値を用いて2値化を行うことにより2値画像を生成する。例えば、マスク画像生成部16は、閾値以上の輝度を有する画素を白色に変換し、閾値よりも小さな輝度を有する画素を黒色に変換する。これにより、2値画像では、例えば、道路鋲および白線、空、先行車両などが白色で表示され、路面汚れを含むそれ以外の領域が黒色で表示される。ここで、閾値は、検出対象となる道路鋲と、ノイズ要素である道路上の路面汚れなどとを切り分けることができるような値として設定されており、また、2値画像は、当該画像上の道路鋲に対応する画素が、候補画像生成部11において生成される膨張画像において道路鋲に対応する画素と同一の2値属性(本実施形態では、白色)となるように2値化処理される。
First, in step 10 (S10), the mask
ステップ11(S11)において、マスク画像生成部16は、ステップ10において生成された2値画像を処理対象として、モルフォロジー演算などを用いて膨張処理を行う。これにより、マスク画像生成部16は、2値画像に含まれる白色領域を全方向に膨張させたマスク画像を作成する。なお、本ステップにおける膨張処理は、第1の実施形態に示す膨張処理の手法と基本的に同じであるが、マスク画像における道路鋲の大きさが、後述するステップ15における収縮処理後の収縮画像における道路鋲の大きさよりも大きくなるように、膨張率が設定されている。
In step 11 (S11), the mask
ステップ12(S12)において、候補画像生成部11は、画像メモリ20から1フレーム相当の撮像画像を読み込むとともに、当該撮像画像を処理対象として微分処理を行い、微分画像を生成する。そして、ステップ13(S13)において、候補画像生成部11は、生成された微分画像を処理対象として、2値化処理を行うことにより、エッジ画像を生成する。そして、ステップ14(S14)において、候補画像生成部11は、モルフォロジー演算などを用いて膨張処理を行うことにより、エッジ画像に含まれる白色領域を全方向に膨張させた膨張画像を作成する。なお、ステップ12〜14における各処理は、第1の実施形態におけるステップ1〜3における各処理とそれぞれ対応している。
In step 12 (S12), the candidate
ステップ15(S15)において、候補画像生成部11は、膨張画像を処理対象として、モルフォロジー演算などを用いて収縮処理を行う。具体的には、候補画像生成部11は、ステップ14において膨張させた白色領域のそれぞれを処理対象として膨張された領域を内側へと収縮させることにより、個々の白色領域を膨張処理を実施する前の大きさとほぼ同じ大きさへと調整する(収縮画像の作成)。
In step 15 (S15), the candidate
ステップ16(S16)において、マスク画像生成部16は、ステップ15において生成された収縮画像に対して、ステップ11において生成されたマスク画像を用いてマスク処理を行う。具体的には、マスク画像生成部16は、収縮画像に含まれる白色の画素のそれぞれについて、当該画素と位置的に対応するマスク画像上の画素が黒色であれば、当該画素を黒色に変更する。一方、収縮画像に含まれる黒色の画素のそれぞれについては、当該画素と位置的に対応するマスク画像上の画素が白色であっても、当該画素を白色には変更しない。これはすなわち、収縮画像に含まれる白色の画素のそれぞれについて、当該画素と位置的に対応するマスク画像上の画素が白色である部分のみを白色とし、その他の画素を黒色にすることになる。言い換えると、収縮画像に含まれる画素が白色であって、かつ、当該画素と位置的に対応するマスク画像上の画素が白色である場合に当該画素を変更せず、収縮画像に含まれる画素と当該画素と位置的に対応するマスク画像上の画素の色が異なる場合や両方とも黒色の場合には当該画素を黒色とする。これにより、収縮画像に含まれていた路面汚れ等のノイズが抑制された画像が得られる。
In step 16 (S16), the mask
そして、ステップ17(S17)からステップ20(S20)までの各処理において、ステップ16において得られる画像を処理対象として、領域検出、フィルタリング、歪み補正、道路形状推定の各処理が行われる。これらの処理は、第1の実施形態におけるステップ4からステップ7までの各処理と対応している。
In each process from step 17 (S17) to step 20 (S20), each process of area detection, filtering, distortion correction, and road shape estimation is performed with the image obtained in
このように本実施形態において、マスク画像生成部16は、画像メモリ20に入力される撮像画像を処理対象として2値化処理を行い、2値化処理後の画像について全方向への膨張処理を行うことによりマスク画像を生成する。そして、マスク画像生成部16は、膨張画像に対してマスク画像を用いてマスク処理を行う。かかる構成によれば、い路面上の汚れを除去することができるので、道路鋲の検出精度の向上を図ることができる。
As described above, in this embodiment, the mask
また、本実施形態では、候補画像生成部11は、膨張処理を行った後に、膨張画像に対して、膨張させた候補領域の大きさを収縮させる収縮処理をさらに行う。かかる構成によれば、道路鋲の周辺の細かいノイズを除去し、形状を整形することができる。これにより、道路鋲の検出精度の向上を図ることができる。なお、かかる手法については、これを単独で第1の実施形態の手法に適用することも可能である。
In the present embodiment, the candidate
(第3の実施形態)
図9は、本発明の第3の実施形態にかかる車線認識装置1を概略的に示す構成図である。本実施形態にかかる車線認識装置1が第2の実施形態と相違する点は、車線の認識手法を切り換えることができる点である。以下、第2の実施形態と共通する構成については符号を引用して重複する説明は省略することとし、以下、相違点を中心に説明を行う。
(Third embodiment)
FIG. 9 is a configuration diagram schematically showing a
本実施形態の車線認識装置1は、第1の実施形態と同様、コントロールユニット10と、画像メモリ20とを主体に構成されており、コントロールユニット10は、画像メモリ20を介してカメラ30と接続されている。
As in the first embodiment, the
コントロールユニット10は、これを機能的に捉えた場合、マスク画像生成部16と、候補画像生成部11と、道路鋲検出部12と、歪み補正部13と、車線認識部14と、検出対象切替部17と、白線検出部18とを有している。ここで、マスク画像生成部16、候補画像生成部11、道路鋲検出部12、歪み補正部13および車線認識部14は、第2の実施形態と同様である。
When the
検出対象切替部17は、車線認識の動作モードとして、白線検出モードと道路鋲検出モードとを有しており、両モードを択一的に選択しながら車線認識を行う。ここで、白線検出モードは、後述する白線検出部18によって、道路上の車線を画定する車線区分線(ライン)、例えば、白線などを検出することにより、車線を認識するモードである。一方、道路鋲検出モードは、第2の実施形態に示すように、マスク画像生成部16、候補画像生成部11、道路鋲検出部12、歪み補正部13および車線認識部14によって、道路上の道路鋲を検出することにより、車線を認識するモードである。
The detection
白線検出部(ライン検出手段)18は、画像メモリ20より、画像メモリ20から1フレーム相当の撮像画像を読み込むとともに、当該撮像画像に基づいて、道路上の車線を画定するライン(例えば、白線)を認識し、これにより、車線を認識する。白線認識の手法は周知の技術を採用することができ、例えば、特開2002−175535号公報に記載の様に、撮像画像の輝度変化から複数の白線候補点を抽出し、抽出した複数の白線候補点に基づいて道路上の車線を画定するラインを認識する事ができる(詳細は特開2002−175535号公報を参照されたい)。
The white line detection unit (line detection unit) 18 reads a captured image corresponding to one frame from the
このような構成の車線認識装置1において、検出対象切替部(切換手段)17は、以下のようにして動作モードの切り替えを行う。具体的には、車線認識装置1は、いずれか一方の動作モードを選択した状態において、検出失敗が所定時間(例えば、3sec)以上形状した場合には、他方の動作モードに切り換える。道路鋲検出モードにおける検出失敗の判定は、車線認識部14において、白色領域の代表点座標に対して直線回帰を行った際に、その回帰直線と代表点座標との誤差が所定の閾値を超えたことを条件とするといった如くである。一方、白線検出モードにおける検出失敗の判定は、白線に対する回帰直線とエッジ点との適合度が所定の閾値を下回ったことを条件とするといった如くである。
In the
このように本実施形態において、既存の白線検出技術と道路鋲検出を共存させることができるので、白線と道路鋲が混在する環境においても車線を認識することができる。 Thus, in this embodiment, since the existing white line detection technology and roadside detection can coexist, a lane can be recognized even in an environment where whitelines and roadsides are mixed.
1 車線認識装置
10 コントロールユニット
11 候補画像生成部
12 道路鋲検出部
13 歪み補正部
14 車線認識部
15 撮像範囲変更部
16 マスク画像生成部
17 検出対象切替部
18 白線検出部
20 画像メモリ
30 カメラ
31 ヘッドライト
DESCRIPTION OF
Claims (7)
前記撮像手段によって撮像された撮像画像内の輝度的なエッジが抽出されたエッジ画像を生成する第1の処理手段と、
前記第1の処理手段によって生成されたエッジ画像において、エッジとして抽出された領域である候補領域に対して当該領域を全方位に膨張させる膨張処理を行うことにより、膨張画像を生成する候補画像生成手段と、
前記候補画像生成手段によって生成された膨張画像において、前記候補領域に関するアスペクト比および面積に基づいて、道路上の車線を画定する道路鋲を検出する道路鋲検出手段と、
前記道路鋲検出手段によって検出された道路鋲に基づいて、道路上の車線を認識する認識手段とを有し、
前記候補画像生成手段は、道路鋲に対応する候補領域が、非道路鋲に対応する候補領域と連結しない程度に膨張処理を行うことを特徴とする車線認識装置。 Imaging means for imaging the road surface;
First processing means for generating an edge image obtained by extracting a luminance edge in a captured image captured by the imaging means;
In the edge image generated by the first processing means, candidate image generation for generating an expanded image by performing expansion processing for expanding the region in all directions with respect to a candidate region that is an area extracted as an edge Means,
In the expanded image generated by the candidate image generation means, road ridge detection means for detecting a road lane that defines a lane on the road based on the aspect ratio and area relating to the candidate area;
Based on the detected road stud by the road stud detection means have a recognition means for recognizing the lane on the road,
The lane recognition device according to claim 1, wherein the candidate image generation unit performs an expansion process so that a candidate area corresponding to a roadside is not connected to a candidate area corresponding to a non-roadside .
前記撮像手段によって撮像された撮像画像を処理対象として、道路鋲とノイズ要素とを切り分け可能な値を閾値として用いて2値化処理を行うとともに、2値化処理後の画像について全方向への膨張処理をさらに行うことによりマスク画像を生成する第2の処理手段をさらに有し、
前記第2の処理手段は、前記候補画像生成手段によって生成された前記収縮画像に対して前記マスク画像を用いて、前記収縮画像に含まれる画素が白色であって、かつ、当該画素と位置的に対応するマスク画像上の画素が白色である場合に当該画素を変更せず、前記収縮画像に含まれる画素と当該画素と位置的に対応するマスク画像上の画素の色が異なる場合及び両方とも黒色の場合には当該画素を黒色とするマスク処理を行うことを特徴とする請求項1から3のいずれか一項に記載された車線認識装置。 The candidate image generation means generates a contracted image by contracting the size of the expanded candidate area with respect to the expanded image after performing the expansion process,
A binarization process is performed using a captured image captured by the imaging unit as a processing target and a value capable of separating a road fence and a noise element as a threshold value, and the image after the binarization process is processed in all directions. A second processing means for generating a mask image by further performing expansion processing;
The second processing unit uses the mask image with respect to the contracted image generated by the candidate image generating unit , and a pixel included in the contracted image is white and is positioned with respect to the pixel. If the pixel on the mask image corresponding to is white, the pixel is not changed, and the color of the pixel on the mask image corresponding to the pixel and the pixel included in the contracted image is different from both. The lane recognition device according to any one of claims 1 to 3, wherein in the case of black, mask processing is performed to make the pixel black .
動作モードとして、前記ラインの検出に基づいて車線を認識するモードと、前記道路鋲の検出に基づいて車線を認識するモードを有するとともに、当該動作モードを択一的に切り換える切換手段とをさらに有することを特徴とする請求項1から5のいずれか一項に記載された車線認識装置。 Line detecting means for recognizing a lane on the road by detecting a line defining a lane on the road based on a captured image captured by the imaging means;
The operation mode further includes a mode for recognizing a lane based on the detection of the line, a mode for recognizing a lane based on the detection of the roadside, and a switching unit that selectively switches the operation mode. The lane recognition device according to any one of claims 1 to 5 , wherein
前記生成されたエッジ画像において、エッジとして抽出された領域である候補領域に対して当該領域を全方位に膨張させる第2のステップと、
前記膨張された候補領域を処理対象として、アスペクト比および面積に基づいて、道路上の車線を画定する道路鋲を検出する第3のステップと、
前記検出された道路鋲に基づいて、道路上の車線を認識する第4のステップとを有し、
前記第2のステップは、道路鋲に対応する候補領域が、非道路鋲に対応する候補領域と連結しない程度に前記候補領域を膨張させることを特徴とする車線認識方法。 A first step of generating an edge image obtained by extracting a luminance edge in the image with the captured image captured by the imaging means as a processing target;
A second step of expanding the region in all directions with respect to a candidate region that is a region extracted as an edge in the generated edge image;
A third step of detecting road ridges defining lanes on the road based on the aspect ratio and area, with the expanded candidate area as a processing target;
Based on the detected road studs, it has a fourth step recognizes the lane on the road,
The second step is a lane recognition method , wherein the candidate area is expanded to such an extent that the candidate area corresponding to the road fence is not connected to the candidate area corresponding to the non-road fence .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009007335A JP5152002B2 (en) | 2009-01-16 | 2009-01-16 | Lane recognition device and lane recognition method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009007335A JP5152002B2 (en) | 2009-01-16 | 2009-01-16 | Lane recognition device and lane recognition method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010165204A JP2010165204A (en) | 2010-07-29 |
| JP5152002B2 true JP5152002B2 (en) | 2013-02-27 |
Family
ID=42581302
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009007335A Expired - Fee Related JP5152002B2 (en) | 2009-01-16 | 2009-01-16 | Lane recognition device and lane recognition method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5152002B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9558410B2 (en) | 2014-04-24 | 2017-01-31 | Honda Motor Co., Ltd. | Road environment recognizing apparatus |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102011006564B4 (en) | 2011-03-31 | 2025-08-28 | Robert Bosch Gmbh | Method for evaluating an image taken by a camera of a vehicle and image processing device |
| JP2015070280A (en) * | 2013-09-26 | 2015-04-13 | 京セラ株式会社 | Image processing system, camera system, and image processing method |
| US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003317105A (en) * | 2002-04-26 | 2003-11-07 | Nissan Motor Co Ltd | Roadway recognition device |
| JP4584120B2 (en) * | 2005-11-21 | 2010-11-17 | トヨタ自動車株式会社 | Road marking line detection device, road marking line detection method, road marking line detection program |
| JP4821348B2 (en) * | 2006-02-07 | 2011-11-24 | トヨタ自動車株式会社 | Road section line detection apparatus and method, and program |
-
2009
- 2009-01-16 JP JP2009007335A patent/JP5152002B2/en not_active Expired - Fee Related
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9558410B2 (en) | 2014-04-24 | 2017-01-31 | Honda Motor Co., Ltd. | Road environment recognizing apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2010165204A (en) | 2010-07-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
| CN104954664B (en) | Image processing apparatus and image processing method | |
| JP5437855B2 (en) | Obstacle detection device, obstacle detection system including the same, and obstacle detection method | |
| KR101204556B1 (en) | Noise Reduction Method and Night Vision System Using the Same | |
| JP5071198B2 (en) | Signal recognition device, signal recognition method, and signal recognition program | |
| EP1887521B1 (en) | Vehicle and road sign recognition device | |
| US9542608B2 (en) | Image processing apparatus | |
| JP2008130087A (en) | Target area division method and target area division device | |
| US10148938B2 (en) | Vehicle-mounted image recognition device to set a stereoscopic-vision and monocular-vision image areas | |
| JP2009157085A (en) | Exposure controller and exposure control program | |
| CN103888663B (en) | image processing apparatus, image pickup apparatus and image processing method | |
| US20140055572A1 (en) | Image processing apparatus for a vehicle | |
| KR102177878B1 (en) | Apparatus and method for processing image | |
| JP5152002B2 (en) | Lane recognition device and lane recognition method | |
| JP6701327B2 (en) | Glare detection method and device | |
| KR101402089B1 (en) | Apparatus and Method for Obstacle Detection | |
| JP4584120B2 (en) | Road marking line detection device, road marking line detection method, road marking line detection program | |
| JP5256060B2 (en) | Imaging device | |
| JP2014142832A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
| JP5235843B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
| JP6396840B2 (en) | Object detection device | |
| JP2019204988A (en) | Image processing apparatus and image processing method | |
| JP4821348B2 (en) | Road section line detection apparatus and method, and program | |
| JP2003271930A (en) | Lane mark recognition device | |
| JP5866238B2 (en) | Outside environment recognition device and outside environment recognition method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111128 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120813 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120821 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121009 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121106 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121119 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5152002 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |