JP2005157723A - Traffic lane recognition device and traffic lane recognition method - Google Patents
Traffic lane recognition device and traffic lane recognition method Download PDFInfo
- Publication number
- JP2005157723A JP2005157723A JP2003395066A JP2003395066A JP2005157723A JP 2005157723 A JP2005157723 A JP 2005157723A JP 2003395066 A JP2003395066 A JP 2003395066A JP 2003395066 A JP2003395066 A JP 2003395066A JP 2005157723 A JP2005157723 A JP 2005157723A
- Authority
- JP
- Japan
- Prior art keywords
- white line
- line candidate
- white
- line
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000000605 extraction Methods 0.000 claims description 31
- 239000000284 extract Substances 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000002542 deteriorative effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 238000003708 edge detection Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自車両の前方の道路上の白線を検出して車線を認識する車線認識装置および車線認識方法に関するものである。 The present invention relates to a lane recognition device and a lane recognition method that recognize a lane by detecting a white line on a road ahead of the host vehicle.
従来、自車両に設けた電子式のカメラで撮像した画像から自車両が走行する道路上の白線を検出し、自車両の車線(走行路)を認識する技術が知られている。
例えば下記特許文献1における従来技術では、カメラで撮像した画像内にウインドウを設定し、このウインドウ内の輝度変化に基いて複数の白線候補点を抽出し、この抽出された白線候補点を最も多く含む直線を白線として認識するようにしている。
2. Description of the Related Art Conventionally, a technique for detecting a white line on a road on which the host vehicle travels from an image captured by an electronic camera provided on the host vehicle and recognizing the lane (traveling path) of the host vehicle is known.
For example, in the prior art disclosed in
しかしながら、上記特許文献1における従来技術においては、上記抽出した白線候補点の数が所定値に満たない場合には、白線を認識できなかったと判断している。このため、白線を認識できる機会が少なくなってしまい、白線の認識精度が低いという問題点があった。
However, in the prior art in
本発明は、白線の認識精度を低下させることなく、白線を認識する機会を増加することができる車線認識装置および車線認識方法を提供することを目的とする。 An object of the present invention is to provide a lane recognition device and a lane recognition method that can increase the chance of recognizing a white line without reducing the recognition accuracy of the white line.
上記課題を解決するために、本発明は、自車両の前方を撮像する画像取得手段により撮像した画像のうち隣接する画素の輝度変化が第1の所定値以上である場合に、第1の白線候補点を抽出する第1の白線候補点抽出手段と、抽出した第1の白線候補点を含む直線のうち、第1の白線候補点が最も多く載る第1の白線候補線を抽出する第1の白線候補線抽出手段と、抽出した第1の白線候補線に含まれる第1の白線候補点の数が、所定値未満である場合に、第1の所定値よりも小さい第2の所定値を設定する第2の所定値設定手段と、画像のうち隣接する画素の輝度変化が第2の所定値以上である場合に、第2の白線候補点を抽出する第2の白線候補点抽出手段と、抽出した第2の白線候補点を含む直線のうち、第2の白線候補点が最も多く載る第2の白線候補線を抽出する第2の白線候補線抽出手段と、第2の白線候補線と第1の白線候補点もしくは第1の白線候補線とに基いて第3の白線候補線を抽出する第3の白線候補線抽出手段と、第3の白線候補線を白線として認識する白線認識手段とを備えている。 In order to solve the above-described problem, the present invention provides a first white line when the luminance change of an adjacent pixel in an image captured by an image acquisition unit that captures the front of the host vehicle is greater than or equal to a first predetermined value. First white line candidate point extracting means for extracting candidate points, and a first white line candidate line on which most first white line candidate points are placed among straight lines including the extracted first white line candidate points White line candidate line extraction means and a second predetermined value smaller than the first predetermined value when the number of first white line candidate points included in the extracted first white line candidate line is less than a predetermined value And second white line candidate point extracting means for extracting a second white line candidate point when the luminance change of an adjacent pixel in the image is equal to or greater than a second predetermined value. And the second white line candidate point is the largest among the extracted straight lines including the second white line candidate point. A second white line candidate line extracting means for extracting the second white line candidate line and a third white line candidate line based on the second white line candidate line and the first white line candidate point or the first white line candidate line. And white line recognition means for recognizing the third white line candidate line as a white line.
本発明によれば、白線の認識精度を低下させることなく、白線を認識する機会を増加させることができる。 According to the present invention, the chance of recognizing a white line can be increased without reducing the recognition accuracy of the white line.
以下、本発明の実施の形態を添付図面を参照して詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施の形態の車線認識装置を搭載した車両を示す図、図1は、本実施の形態の車線認識装置の基本的な構成を示すブロック図である。
図2において、12は自車両、10は本実施の形態の車線認識装置(道路白線認識装置)、14は電子式のカメラ、16は車線認識装置10の主要部を構成するプロセッサ、12aは自車両12の室内天井、12bは自車両12のフロントガラス、Rは道路である。
図2に示すように、自車両12の前方の道路画像を取得するカメラ14と、カメラ14で取得した画像信号(以下、単に画像と記す)を処理するプロセッサ16が自車両12に設置されている。カメラ14としては、高感度撮像が可能なCCD(Charge Coupled Device)カメラまたはCMOS(Complementaly Metal-Oxide Semiconductor)カメラなどが好ましい。カメラ14は、自車両12の室内天井12aの前方中央部に前方下方を指向して設置され、フロントガラス12bを通して自車両12前方の道路Rの画像を取得する。プロセッサ16は、熱や風雨の影響のない自車両12の適宜の箇所に設置され、カメラ14で取得した道路Rの画像から道路Rの白線を認識し、道路Rの形状および道路Rに対する自車両12の姿勢を推定する制御が実行される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings described below, components having the same function are denoted by the same reference numerals, and repeated description thereof is omitted.
FIG. 2 is a diagram showing a vehicle equipped with a lane recognition device according to an embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of the lane recognition device according to the present embodiment.
In FIG. 2, 12 is the own vehicle, 10 is the lane recognition device (road white line recognition device) of the present embodiment, 14 is an electronic camera, 16 is a processor constituting the main part of the
As shown in FIG. 2, a
図1において、15は自車両12に搭載したカメラ14により取得した自車両12の前方の道路Rの画像を格納する画像メモリ、101はウインドウ設定手段、102は白線候補点抽出手段、103は白線候補線算出手段、104は白線候補点再抽出手段、105は白線候補線再算出手段、106は道路パラメータ推定手段である。
図1に示すように、車線認識装置10は、画像メモリ15に格納された道路Rの画像に基いて道路パラメータを推定する、例えばマイクロプロセッサを使用したプロセッサ16とを備えている。
プロセッサ16は、ウインドウ設定手段101と、白線候補点抽出手段102と、白線候補線算出手段103と、白線候補点再抽出手段104と、白線候補線再算出手段105と、道路パラメータ推定手段106とを備えている。そして、これらの手段101〜106をプログラム制御により実現している。なお言うまでもなく、これらの手段101〜106は、プロセッサ16が下記のフローチャート(図3、図4)に従って実行する制御機能を示している。
ウインドウ設定手段101は、画像メモリ15に格納された道路Rの画像上に、それぞれのウインドウに道路Rの白線が含まれるように白線の延長方向に沿って複数のウインドウを設ける。白線候補点抽出手段102は、これらのウインドウ毎の画像を処理して白線候補点を抽出する。白線候補線算出手段103は、これらのウインドウ毎に抽出された白線候補点に基いて、白線の可能性が最も高い白線候補線の画像座標および傾きを算出する。白線候補点再抽出手段104は、これらのウインドウ毎の画像を処理して白線候補点を再抽出する。白線候補線再算出手段105は、ウインドウ毎に抽出された白線候補点に基いて白線の可能性が最も高い白線候補線の画像座標および傾きを再算出する。道路パラメータ推定手段106は、各ウインドウに対して算出された白線候補線の画像座標および傾きと道路モデル式とを用いて、少なくとも自車両12の車線に対する横変位を含む道路パラメータを推定する。
道路モデル式として、次に示す式1を用いて前述のように道路Rの形状および道路Rに対する自車両12の姿勢を推定する。
In FIG. 1, 15 is an image memory for storing an image of a road R ahead of the
As shown in FIG. 1, the
The
The window setting means 101 provides a plurality of windows on the road R image stored in the
As the road model formula, the following
また、E0は車線幅(左右の白線の内側間の距離)を示す定数、fはカメラ14のカメラ透視変換定数、jは左右の白線を区別するパラメータとし、左白線のとき、j=0、右白線のときj=1とする。また、(x,y)は、左白線または右白線内端上の任意の点の画像上の座標であり、画像左上を原点に取り、右方向がx軸正方向、下方向がy軸正方向とする。
なお、式1は、道路モデルを表す一手法を示したものであり、例えば、E0を変数にしたもの、Hを固定したもの、車線幅を前述のように左右の白線の内側間の距離ではなく、左白線中央と右白線中央との間の距離とし、(x,y)を白線幅の中央位置の画像座標としても定義することができる。
E 0 is a constant indicating the lane width (the distance between the insides of the left and right white lines), f is a camera perspective conversion constant of the
Note that
図5は、画面に設定される複数のウインドウの配列状態を示す図であり、18は道路の白線、20はウインドウである。
図6は、ウインドウ20内の白線候補点のプロット状態を示す図であり、20aはウインドウ20の上辺、20bはウインドウ20の下辺、21は白線候補点である。
図7は、ウインドウ20内の白線候補線の選択状態を示す図で、22は白線候補線である。
FIG. 5 is a diagram showing an arrangement state of a plurality of windows set on the screen, in which 18 is a road white line and 20 is a window.
FIG. 6 is a diagram showing a plot state of white line candidate points in the
FIG. 7 is a diagram showing a selection state of white line candidate lines in the
図3および図4は、プロセッサ16によって道路パラメータを推定するプログラムのフローチャートである。例えば、自車両12の走行中に30[msec]毎に処理が繰り返されるものとする。
次に、図3の各ステップ毎の概略処理を説明する。
まず、ステップS1において、図1のカメラ14から画像メモリ15へ自車両12の前方画像を取り込む。
次いで、ステップS2において、取り込んだ画像上に複数(m個)の白線検出用のウインドウ20(図5参照)を設定する。
次いで、ステップS3において、ウインドウ処理番号iを初期値の1に設定する。
次いで、ステップS4において、i番目のウインドウ20(以下、ウインドウiと記す)の画像データから、水平方向の輝度変化を検出して白線18の端部の位置を認識するための白線候補点21(図6参照)を抽出する。
次いで、ステップS5において、ウインドウ20内の白線候補点21の座標位置に基いて、これらの白線候補点21から最も白線18の可能性が高い白線候補線22(図7参照)を算出する。
次いで、ステップS6において、白線18が検出されたかどうかを判定する。
ステップS6の判定で、白線18が検出された場合は、ステップS9へ進む。 ステップS6の判定で、白線18が検出されていない場合は、ステップS7において、ウインドウiの画像データから、水平方向の輝度変化を検出して白線18の端部の位置を認識するための白線候補点21(図6参照)を再抽出する。
次いで、ステップS8において、ウインドウ20内の白線候補点21の座標位置に基いて、これらの白線候補点21から最も白線18の可能性が高い白線候補線22(図7参照)を再算出する。
次いで、ステップS9において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS10において、iがウインドウ数(m)を超えているか否かを判定する。
ステップS10の判定で、iがウインドウ数(m)を超えていなければ、次のウインドウ20を処理すべく、ステップS4へ戻る。
ステップS10の判定で、iがウインドウ数(m)を超えていれば、全ウインドウの前処理が終わったので、ステップS20において、道路パラメータの推定処理を行う。
3 and 4 are flowcharts of a program for estimating the road parameters by the
Next, an outline process for each step in FIG. 3 will be described.
First, in step S1, a front image of the
In step S2, a plurality (m) of white line detection windows 20 (see FIG. 5) are set on the captured image.
In step S3, the window processing number i is set to an initial value of 1.
Next, in step S4, a white line candidate point 21 (for detecting the luminance change in the horizontal direction from the image data of the i-th window 20 (hereinafter referred to as window i) and recognizing the end position of the white line 18 ( (See FIG. 6).
Next, in step S5, based on the coordinate position of the white
Next, in step S6, it is determined whether or not the
If it is determined in step S6 that the
Next, in step S8, based on the coordinate position of the white
Next, in step S9, the window process number i is incremented by one.
Next, in step S10, it is determined whether i exceeds the number of windows (m).
If it is determined in step S10 that i does not exceed the number of windows (m), the process returns to step S4 to process the
If it is determined in step S10 that i exceeds the number of windows (m), the pre-processing for all the windows has been completed. In step S20, road parameter estimation processing is performed.
以下、上記プログラムの処理を各ステップ毎にさらに詳細に説明する。
(1)前方画像の取り込み(S1)
プロセッサ16がプログラムを処理する所定時間毎、例えば30[msec]毎に、カメラ14によって撮像された自車両12の前方の画像を画像メモリ15へ取り込む。画像は各画素毎の輝度データとして表される。
(2)複数のウインドウ20の設定(S2)
図5に示すように、ウインドウ20は、道路Rの白線18の延長方向に沿って複数(図5の例では、左白線に対して5個、右白線に対して5個)設けられる。前回の画像処理結果によって得られた道路モデルのパラメータにより、それぞれのウインドウ20に白線18が取り込まれるように、各ウインドウ20の位置が設定され、白線18はこれらのウインドウ20内で検知される。図5において、縦方向は画像座標y軸方向を示し、図中下方がyプラスである。また、横方向は画像座標x軸方向を示し、図中右方がxプラスである。
ここで、n番目のウインドウ(i=n)の上辺20a(図6)のy座標をynとし、前回のパラメータの推定結果を{A(−1),B(−1),C(−1),D(−1),H(−1)}とすると、式1より今回のウインドウ20の横方向の中心座標xestは、式2で示される。
Hereinafter, the processing of the program will be described in more detail for each step.
(1) Capture forward image (S1)
An image in front of the
(2) Setting of a plurality of windows 20 (S2)
As shown in FIG. 5, a plurality of
Here, the y coordinate of the
(3)ウインドウ処理番号iの初期化(S3)
ステップS4からステップS7までの処理を全てのウインドウ20に対して行うためのループ制御パラメータ(すなわち、ウインドウ処理番号)iを1に初期化する。
(4)白線候補点21の抽出(S4)
カメラ14から取り込まれた画像に上記のごとく設定された各ウインドウ20の範囲の画像からソーベル(sobel)フィルタ処理などのエッジ検知(輝度変化検知)処理を利用して、白線候補点21(図6)を選択する。このエッジ検知では、図6に示すように左(画像座標のx値が小さい)の画素の輝度が右(画像座標のx値が大きい)の画素の輝度より大きい場合、フィルタの出力が正であるとする。そして、ある程度の幅を有する白線18の内側端部を白線18の位置としているので、左白線の場合は、フィルタの出力が正の判別値を超えた点を白線候補点21とし、右白線の場合は、フィルタの出力が負の判別値を下回った点を白線候補点21とする。ウインドウ20内の全ての画像データを走査してフィルタの出力により、上記の判別値を利用して白線候補点21を抽出する。なお、上記判別値は、画像全体またはウインドウ20毎の平均輝度、コントラスト等により、適宜設定されてもよい。
なお、このエッジ検知は、左右に隣接する画素の輝度の変化より白線候補点21を抽出するようにしているが、取り込まれた画像のうち上下に隣接する画素の輝度の変化より白線候補点21を抽出するようにしてもよい。ただし、この場合には、道路の側方に存在する白線18以外にも、交差点等に存在する停止線からも白線候補点21を抽出してしまうため、前者に記載した左右に隣接する画素の輝度変化より白線候補点21を抽出することが好ましい。
(3) Initialization of window processing number i (S3)
A loop control parameter (i.e., window processing number) i for performing the processing from step S4 to step S7 on all
(4) Extraction of white line candidate points 21 (S4)
A white line candidate point 21 (FIG. 6) is obtained by using edge detection (brightness change detection) processing such as a sobel filter processing from the image of the range of each
In this edge detection, the white
(5)白線候補線22の算出(S5)
ウインドウ20内から抽出された白線候補点21の集合から白線候補線22(図7)を探索する。この探索には、ハフ変換や最小自乗法などを用いることができる。本実施形態ではハフ変換を用いるものとし、ハフ変換直線近似では図7に示すようにウインドウ20内を通過する直線のうち、最も多く白線候補点21を貫いた白線候補線22、つまり、白線候補点21が一番多く載る白線候補線22を、最も白線18の可能性が高い白線候補線22とする。
このとき、座標(x,y)を通過する直線はパラメータa,bを用いて次の式3として表すことができる。ここで、aは白線候補線22の傾き(∂x/∂y)であり、bはそのx切片である。
(5) Calculation of white line candidate line 22 (S5)
A white line candidate line 22 (FIG. 7) is searched from a set of white line candidate points 21 extracted from the
At this time, a straight line passing through the coordinates (x, y) can be expressed as the following Expression 3 using the parameters a and b. Here, a is the slope (∂x / ∂y) of the white
すなわち、白線候補点21の座標を(x,y)とすると、aを決めるとbが式3より計算でき、これにより図8に示すハフ変換による配列が得られる。この配列の横方向は、一定刻みのaの値であり、縦方向は一定刻みのbの値である。ここで、配列の空欄は零を意味する。また、「1」が立っている(a,b)の組み合わせの中に真値が含まれる。この配列を白線候補点21の全てに対してそれぞれ作成し、作成した配列を重ね合わせて、各配列要素毎の数を合計することにより図9に示す配列が得られる。図9において、配列要素(ar,br)の数zrは、式4が貫く白線候補点21の数を表している。
That is, assuming that the coordinates of the white
図10は、ウインドウ20の上辺20aと白線候補線22との交点との道路座標を示す図である。
こうして、白線候補線22が算出されると、次いで、図10に示すように、ウインドウ処理番号nにおける白線候補線22とウインドウ20の上辺20aとの交点の画像上の座標である道路座標(xn,yn)を算出する。ウインドウ20の上辺20aのy座標ynは、ウインドウ処理番号nに対する固定値である。道路座標のx成分xnは、式5で算出される。
FIG. 10 is a diagram illustrating road coordinates between the
When the white
(6)白線18の検出判定(S6)
zmaxは、上記で算出された白線候補線22がハフ変換において白線候補点21を何点貫いているかを表しているが、このzmaxが所定値に満たない場合は、白線18を検出していない可能性が高い。例えば、今回、問題にしている図11のようなかすれた白線18’もそうであるが、路面の局所的汚れを誤検出している可能性がある。よって、このzmaxは所定値以上を持つものを白線18とすべきである。この所定値は、設定しているウインドウ20の大きさ、カメラ14の特性をもとに実験値で設定するものである。よって、zmaxが所定値に達していない場合は、このウインドウiでは白線を検出していないとする。
(7)白線候補点21の再抽出(S7)
上記(6)白線18の検出判定で、白線18が検出できなかったウインドウiに対して再抽出を行う。使用する画像は同じ画像を用いる。この抽出の際に、上記(4)白線候補点21の抽出で用いた第1の判別値より低い第2の判別値を用いて、上記(4)白線候補点21の抽出と同様なエッジ検知(輝度変化検知)処理により白線候補点21の再抽出を行う。白線18を対象とした場合は、図12のような白線候補点21’が再抽出される。なお、上記第2の判別値は、実験により最適な値を選定する。
(8)白線候補線22の再算出(S8)
ウインドウ20内から抽出された白線候補点21および白線候補点21’の集合から白線候補線22を探索する。ハフ変換直線近似は、前述したのと同様な方法をとる。手順としては、
a)白線候補点21’に対してハフ変換直線近似を適用し、白線候補点21’を最も多く貫く仮白線候補線を算出する。
b)得られた仮白線候補線の傾きを用いて白線候補点21を最も多く貫く白線候補線22を算出する。そして、この白線候補線22を白線18として認識する。この場合、最も多く白線候補点21を貫いた候補点数は、上記の(6)白線18の検出判定で用いた所定値より少ない値でも白線を検出しているとするが、候補点数が所定以下の場合は白線18を検出できなかったと処理する。
(6)
z max represents the number of white line candidate points 21 that the white
(7) Re-extraction of white line candidate points 21 (S7)
In the above (6)
(8) Recalculation of white line candidate line 22 (S8)
A white
a) Hough transform straight line approximation is applied to the white line candidate point 21 'to calculate a provisional white line candidate line that penetrates most of the white line candidate point 21'.
b) A white
(9)道路パラメータの推定(S20)
前記の式1をyで微分して式6を得る。
(9) Road parameter estimation (S20)
Equation 6 is differentiated by y to obtain Equation 6.
次に、カルマンフィルタを用いて道路パラメータを推定する場合、式8に示す方程式が与えられることにより、パラメータzを推定することができる。ただし、同式中のパラメータyyの値およびfの構造はそれぞれ既知とし、一般にyyはベクトルとなる。
Next, when the road parameter is estimated using the Kalman filter, the equation z shown in
式9’は一般に複数列より構成され、これらを線型近似した上で並べることにより次の行列式10が得られる。
次に、図4を参照して、道路パラメータ推定処理のサブルーチンP3を説明する。
図3にも示した道路パラメータの推定(S20)から、まず、ステップS21において、ウインドウ処理番号パラメータiを1に初期化する。
次いで、ステップS22において、式10のziはxiとし、式9’の右辺を線形近似することにより、Mi1,Mi2,Mi3,Mi4,Mi5は、それぞれyの値がyiにおけるdfz/dA,dfz/dB,dfz/dC,dfz/dD,dfz/dHとする。
次いで、ステップS23において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS24において、ウインドウ処理番号iがウインドウ数mを超えているか否かを判定する。
Next, with reference to FIG. 4, the subroutine P3 of the road parameter estimation process will be described.
From the road parameter estimation (S20) also shown in FIG. 3, first, the window processing number parameter i is initialized to 1 in step S21.
Next, in step S22, zi in
Next, in step S23, the window process number i is incremented by one.
Next, in step S24, it is determined whether or not the window process number i exceeds the window number m.
ステップS24の判定で、iがウインドウ数mを超えていなければ、次のウインドウ20を処理すべく、ステップS22へ戻る。
ステップS24の判定で、iがウインドウ数mを超えていれば、ステップS25において、カルマンフィルタ処理により、パラメータ(A,B,C,D,H)を推定し、メインルーチンヘリターンする。
If it is determined in step S24 that i does not exceed the number m of windows, the process returns to step S22 to process the
If it is determined in step S24 that i exceeds the number of windows m, parameters (A, B, C, D, H) are estimated by Kalman filter processing in step S25, and the process returns to the main routine.
以上説明したように、本実施の形態による車線認識装置10および車線認識方法は、自車両12の前方を撮像するカメラ14により撮像した画像の輝度変化が第1の所定値(上記第1の判別値)以上である場合に、第1の白線候補点21を抽出する。また、抽出した第1の白線候補点21を含む直線のうち、第1の白線候補点21が最も多く載る第1の白線候補線(図7の22参照)を抽出する。また、抽出した第1の白線候補線に含まれる第1の白線候補点21の数が、所定値未満である場合に、第1の所定値よりも小さい第2の所定値(上記第2の判別値)を設定する。また、画像の輝度変化が第2の所定値以上である場合に、第2の白線候補点21’を抽出する。また、抽出した第2の白線候補点21’を含む直線のうち、第2の白線候補点21’が最も多く載る第2の白線候補線を抽出する。また、第2の白線候補線と第1の白線候補点21とに基いて第3の白線候補線を抽出する。そして、第3の白線候補線を白線18として認識するという構成になっている。また、本実施の形態では、第2の白線候補線と同一の傾きを有する直線のうち、第1の白線候補点21が最も多く載る直線を第3の白線候補線として抽出するようにした。
例えば白黒画像をカメラ14で撮像し、エッジ検出により白線18を認識する場合、前述のようにかすれた白線18’の場合、部分的には輝度差が十分にあっても、白線18として認識するだけの白線候補点21の数が足りないために、白線18の認識ができない場合がある。また、コンクリート路面に引かれた白線のような路面と白線18と輝度差の少ない路面においても同様である。このような場合、白線18の認識率の低下を招く。また、本発明を、認識した白線18に基いて、車両を2つの白線18間より逸脱させないようにする装置に対して適用する場合には、道路の一部で車線認識システムが動作しないところがあると、白線18を再認識できた地点で車線認識システムの設定操作が必要になり、煩雑となる。
As described above, in the
For example, when a black and white image is captured by the
本実施の形態では、上記のように最初に抽出した第1の白線候補点21の数が所定値に満たない場合には、輝度変化のしきい値である第1の所定値を一旦低下させた上で第2の白線候補点21’を抽出する。そして、その上で第2の白線候補線の傾きを算出する。この第2の白線候補線の傾きに対して、高いしきい値である第1の所定値で抽出した第1の白線候補点21を含む第3の白線候補線を抽出し、これを白線18として認識する。このように通常のしきい値で白線候補点21の数が足りず、白線18が検出できなかった場合、濃淡の度合いが低い白線と判断し、通常のしきい値とそれより低いしきい値の2種類のしきい値を設定する。低いしきい値でのハフ変換では白線の方向性を決定し、通常のしきい値のハフ変換では、低い設定でのハフ変換の方向を用いて白線18の境界線を探す。これによって、白線18の認識精度を低下させることなく、白線18を認識できる機会を増加できる。なお、かすれた白線18’以外の場合は、しきい値を低くしても路面輝度のばらつきなどノイズ要素が増えるだけで低いしきい値により見つけた第2の白線候補線の方向に通常のしきい値によるハフ変換が所定の条件を満たすとは考えにくい。よって、かすれた白線18’のみを安定して検出することが可能となり、白線18の認識率が上昇し、より多くの道路に対して車線からの逸脱を防止することが可能となる。また、道路の一部で車線認識システムが動作しない部分が減り、利用者の無駄な操作を減らすことができる。
なお、最初に抽出した第1の白線候補点21の数が所定値未満である第1の白線候補線と、再度抽出した第2の白線候補線とは、基本的には同一のものとなる。これはかすれた白線18’のような場合には、しきい値を下げていくと、抽出できる白線候補点21’は、その白線18’上に増えていくことになる。したがって、一旦しきい値を下げることで、白線候補点21’を増加させて、第2の白線候補線の傾きを確認する。その上で再度、数は少ないかもしれないが、第2の白線候補線上に当初のしきい値で白線候補点21を抽出できたかどうかという確認を行う。この結果、両者が満たされれば、当初抽出した第1の白線候補線を、白線候補点21の数が本来の数より少ないが白線18と認めても良いだろうという判断を行なうものである。
さらに、カメラ14により撮像した画像内に複数のウインドウ20を設定し、ウインドウ20内の輝度変化に基いて第1の白線候補点21、第2の白線候補点21’を検出するようになっている。このような構成により、白線18を容易かつ良好に検出することができる。
In the present embodiment, when the number of first white line candidate points 21 extracted first as described above is less than a predetermined value, the first predetermined value which is a threshold value for luminance change is once decreased. Then, a second white
The first white line candidate lines in which the number of first white line candidate points 21 extracted first is less than a predetermined value and the second white line candidate lines extracted again are basically the same. . In the case of a faint white line 18 ', as the threshold value is lowered, the white line candidate points 21' that can be extracted increase on the white line 18 '. Therefore, by temporarily lowering the threshold value, the white
Furthermore, a plurality of
なお、本実施の形態においては、第2の白線候補線と同一の傾きを有する直線のうち、第1の白線候補点21が最も多く載る直線を第3の白線候補線として抽出したが、他の構成を取ることも可能である。すなわち、抽出した第1の白線候補線を記憶装置に記憶しておいて、この記憶した第1の白線候補線と、抽出した第2の白線候補線とが一致するかどうかを判断する。一致した場合に、この一致した直線を第3の白線候補線として抽出し、この第3の白線候補線を白線18として認識するという構成である。記憶装置は例えばプロセッサ16内に設けられている。
なお、本実施の形態における図1、図2のカメラ14、図3のステップS1が、特許請求の範囲の画像取得手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補点抽出手段102、図3のステップS4が、特許請求の範囲の第1の白線候補点抽出手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線算出手段103、図3のステップS5が、特許請求の範囲の第1の白線候補線抽出手段に相当する。本実施の形態における図1のプロセッサ16、図3のステップS6が、特許請求の範囲の第2の所定値設定手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線点再抽出手段104、図3のステップS7が、特許請求の範囲の第2の白線候補点抽出手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線再算出手段105、図3のステップS8が、特許請求の範囲の第2の白線候補線抽出手段に相当する。本実施の形態における図1のプロセッサ16、図3のステップS8の手順a)とb)が、特許請求の範囲の第3の白線候補線抽出手段に相当する。b)の仮白線候補線の傾きを用いて白線候補点21を最も多く貫く白線候補線22が、特許請求の範囲の第3の白線候補線に相当する。本実施の形態における図1のプロセッサ16、図3のステップS8が、特許請求の範囲の白線認識手段に相当する。
さらに、以上説明した実施の形態は本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
In the present embodiment, among the straight lines having the same inclination as the second white line candidate lines, the straight line on which the first white line candidate points 21 are most frequently extracted is extracted as the third white line candidate line. It is also possible to take the following configuration. That is, the extracted first white line candidate line is stored in the storage device, and it is determined whether or not the stored first white line candidate line matches the extracted second white line candidate line. In the case of a match, this matched straight line is extracted as a third white line candidate line, and this third white line candidate line is recognized as a
In addition, the
Further, the embodiments described above are described for facilitating the understanding of the present invention, and are not described for limiting the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.
10…車線認識装置 12…自車両
12a…室内天井 12b…フロントガラス
14…カメラ 16…プロセッサ
R…道路
18…白線 20…ウインドウ
20a…上辺 20b…下辺
21…白線候補点 22…白線候補線
101…ウインドウ設定手段 102…白線候補点抽出手段
103…白線候補線算出手段 104…白線候補点再抽出手段
105…白線候補線再算出手段 106…道路パラメータ推定手段
DESCRIPTION OF
Claims (5)
前記画像取得手段により撮像した画像のうち隣接する画素の輝度変化が第1の所定値以上である場合に、第1の白線候補点を抽出する第1の白線候補点抽出手段と、
前記第1の白線候補点抽出手段により抽出した前記第1の白線候補点を含む直線のうち、前記第1の白線候補点が最も多く載る第1の白線候補線を抽出する第1の白線候補線抽出手段と、
前記第1の白線候補線抽出手段により抽出した前記第1の白線候補線に含まれる前記第1の白線候補点の数が、所定値未満である場合に、前記第1の所定値よりも小さい第2の所定値を設定する第2の所定値設定手段と、
前記画像のうち隣接する画素の輝度変化が前記第2の所定値設定手段により設定した前記第2の所定値以上である場合に、第2の白線候補点を抽出する第2の白線候補点抽出手段と、
前記第2の白線候補点抽出手段により抽出した前記第2の白線候補点を含む直線のうち、前記第2の白線候補点が最も多く載る第2の白線候補線を抽出する第2の白線候補線抽出手段と、
前記第2の白線候補線抽出手段により抽出した前記第2の白線候補線と、前記第1の白線候補点抽出手段により抽出した前記第1の白線候補点もしくは前記第1の白線候補線抽出手段により抽出した前記第1の白線候補線とに基いて第3の白線候補線を抽出する第3の白線候補線抽出手段と、
前記第3の白線候補線を白線として認識する白線認識手段と
を備えたことを特徴とする車線認識装置。 Image acquisition means for imaging the front of the host vehicle;
A first white line candidate point extracting unit that extracts a first white line candidate point when the luminance change of an adjacent pixel in the image captured by the image acquisition unit is equal to or greater than a first predetermined value;
The first white line candidate for extracting the first white line candidate line on which the first white line candidate points are most frequently included among the straight lines including the first white line candidate points extracted by the first white line candidate point extraction unit. Line extraction means;
When the number of the first white line candidate points included in the first white line candidate line extracted by the first white line candidate line extraction unit is less than a predetermined value, it is smaller than the first predetermined value. Second predetermined value setting means for setting a second predetermined value;
Second white line candidate point extraction for extracting a second white line candidate point when the luminance change of adjacent pixels in the image is equal to or greater than the second predetermined value set by the second predetermined value setting means Means,
A second white line candidate for extracting a second white line candidate line on which the second white line candidate points are most frequently included among straight lines including the second white line candidate points extracted by the second white line candidate point extraction unit. Line extraction means;
The second white line candidate line extracted by the second white line candidate line extracting means, and the first white line candidate point or the first white line candidate line extracting means extracted by the first white line candidate point extracting means. Third white line candidate line extraction means for extracting a third white line candidate line based on the first white line candidate line extracted by
A lane recognition device comprising: white line recognition means for recognizing the third white line candidate line as a white line.
前記第3の白線候補線抽出手段は、前記第1の白線候補線記憶手段により記憶した前記第1の白線候補線と、前記第2の白線候補線抽出手段により抽出した前記第2の白線候補線とが一致するかどうかを判断し、一致した直線を前記第3の白線候補線として抽出することを特徴とする請求項1記載の車線認識装置。 A first white line candidate line storage unit for storing the first white line candidate line extracted by the first white line candidate line extraction unit;
The third white line candidate line extraction unit is configured to store the first white line candidate line stored in the first white line candidate line storage unit and the second white line candidate extracted by the second white line candidate line extraction unit. 2. The lane recognition device according to claim 1, wherein it is determined whether or not the line matches, and the matched straight line is extracted as the third white line candidate line.
前記画像取得工程により撮像した画像のうち隣接する画素の輝度変化が第1の所定値以上である場合に、第1の白線候補点を抽出する第1の白線候補点抽出工程と、
前記第1の白線候補点抽出工程により抽出した前記第1の白線候補点を含む直線のうち、前記第1の白線候補点が最も多く載る第1の白線候補線を抽出する第1の白線候補線抽出工程と、
前記第1の白線候補線抽出工程により抽出した前記第1の白線候補線に含まれる前記第1の白線候補点の数が、所定値未満である場合に、前記第1の所定値よりも小さい第2の所定値を設定する第2の所定値設定工程と、
前記画像のうち隣接する画素の輝度変化が前記第2の所定値設定工程により設定した前記第2の所定値以上である場合に、第2の白線候補点を抽出する第2の白線候補点抽出工程と、
前記第2の白線候補点抽出工程により抽出した前記第2の白線候補点を含む直線のうち、前記第2の白線候補点が最も多く載る第2の白線候補線を抽出する第2の白線候補線抽出工程と、
前記第2の白線候補線抽出工程により抽出した前記第2の白線候補線と、前記第1の白線候補点抽出工程により抽出した前記第1の白線候補点もしくは前記第1の白線候補線抽出工程により抽出した前記第1の白線候補線とに基いて第3の白線候補線を抽出する第3の白線候補線抽出工程と、
前記第3の白線候補線を白線として認識する白線認識工程と
を有することを特徴とする車線認識方法。 An image acquisition step of imaging the front of the host vehicle;
A first white line candidate point extracting step of extracting a first white line candidate point when the luminance change of an adjacent pixel in the image captured by the image acquisition step is equal to or greater than a first predetermined value;
The first white line candidate for extracting the first white line candidate line on which the first white line candidate points are most frequently included among the straight lines including the first white line candidate points extracted in the first white line candidate point extracting step. A line extraction process;
When the number of the first white line candidate points included in the first white line candidate line extracted by the first white line candidate line extraction step is less than a predetermined value, it is smaller than the first predetermined value. A second predetermined value setting step of setting a second predetermined value;
Second white line candidate point extraction for extracting a second white line candidate point when a luminance change of an adjacent pixel in the image is greater than or equal to the second predetermined value set by the second predetermined value setting step Process,
A second white line candidate for extracting a second white line candidate line on which the second white line candidate points are most frequently included among straight lines including the second white line candidate points extracted in the second white line candidate point extraction step. A line extraction process;
The second white line candidate line extracted by the second white line candidate line extraction step, and the first white line candidate point or the first white line candidate line extraction step extracted by the first white line candidate point extraction step. A third white line candidate line extracting step for extracting a third white line candidate line based on the first white line candidate line extracted by:
A white line recognition step of recognizing the third white line candidate line as a white line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003395066A JP2005157723A (en) | 2003-11-26 | 2003-11-26 | Traffic lane recognition device and traffic lane recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003395066A JP2005157723A (en) | 2003-11-26 | 2003-11-26 | Traffic lane recognition device and traffic lane recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005157723A true JP2005157723A (en) | 2005-06-16 |
Family
ID=34720929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003395066A Pending JP2005157723A (en) | 2003-11-26 | 2003-11-26 | Traffic lane recognition device and traffic lane recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005157723A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012080497A (en) * | 2010-10-06 | 2012-04-19 | Suzuki Motor Corp | Parking frame detection device and parking frame detection method |
US8477999B2 (en) | 2006-03-24 | 2013-07-02 | Toyota Jidosha Kabushiki Kaisha | Road division line detector |
-
2003
- 2003-11-26 JP JP2003395066A patent/JP2005157723A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8477999B2 (en) | 2006-03-24 | 2013-07-02 | Toyota Jidosha Kabushiki Kaisha | Road division line detector |
JP2012080497A (en) * | 2010-10-06 | 2012-04-19 | Suzuki Motor Corp | Parking frame detection device and parking frame detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109460709B (en) | RTG visual barrier detection method based on RGB and D information fusion | |
US6845172B2 (en) | Road lane marker recognition | |
US9952678B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4876080B2 (en) | Environment recognition device | |
CN107330376B (en) | Lane line identification method and system | |
JP4956452B2 (en) | Vehicle environment recognition device | |
JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
KR101609303B1 (en) | Method to calibrate camera and apparatus therefor | |
KR101176693B1 (en) | Method and System for Detecting Lane by Using Distance Sensor | |
JP6819996B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
CN107578012B (en) | Driving assistance system for selecting sensitive area based on clustering algorithm | |
KR101261409B1 (en) | System for recognizing road markings of image | |
JP5105481B2 (en) | Lane detection device, lane detection method, and lane detection program | |
KR101483742B1 (en) | Lane Detection method for Advanced Vehicle | |
JP5310027B2 (en) | Lane recognition device and lane recognition method | |
JP2003157499A (en) | White road line recognizing device | |
JP2005157731A (en) | Lane recognizing device and method | |
JP7180445B2 (en) | object detector | |
JP3700625B2 (en) | Road white line recognition device | |
JP2005157733A (en) | Traffic lane recognition device and traffic lane recognition method | |
CN111881878A (en) | Lane line identification method for look-around multiplexing | |
KR101904480B1 (en) | Object recognition system and method considering camera distortion | |
JP2005157723A (en) | Traffic lane recognition device and traffic lane recognition method | |
JP4070450B2 (en) | Forward vehicle recognition device and recognition method | |
JP2000099896A (en) | Traveling path detecting device and vehicle traveling controller and recording medium |