JP3589293B2 - Road white line detection method - Google Patents

Road white line detection method Download PDF

Info

Publication number
JP3589293B2
JP3589293B2 JP2000371645A JP2000371645A JP3589293B2 JP 3589293 B2 JP3589293 B2 JP 3589293B2 JP 2000371645 A JP2000371645 A JP 2000371645A JP 2000371645 A JP2000371645 A JP 2000371645A JP 3589293 B2 JP3589293 B2 JP 3589293B2
Authority
JP
Japan
Prior art keywords
white line
white
detection method
candidates
grouped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000371645A
Other languages
Japanese (ja)
Other versions
JP2002175534A (en
Inventor
敏 寺久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2000371645A priority Critical patent/JP3589293B2/en
Publication of JP2002175534A publication Critical patent/JP2002175534A/en
Application granted granted Critical
Publication of JP3589293B2 publication Critical patent/JP3589293B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車載カメラで撮影された前方映像を解析し、道路の走行車線の境界線(白い線、黄色い線、実線、破線など種々のものが存在するが、本明細書では一括して「白線」という)を認識するための道路の白線検出方法に関するものである。
【0002】
【従来の技術】
自動車への運転支援システムを実現するにあたり、画像による道路環境認識に期待が寄せられている。
道路環境認識の一つとして、走行車線の白線自動認識があり、その手法が各種開発されている。
大池「モデルベースの認識手法による道路白線認識」(信学技報PRMU99−211(2000年1月))では、2値化処理を必要としないストリングモデルを利用した白線認識を提案している。
【0003】
二宮、高橋、太田「高速パターン照合手法とレーン検出への応用」(第3回次世代走路表示/認識技術研究会資料、認研3−4−1,1999年11月)では、テンプレートを当てはめることにより、道路構造照合を行う手法を提案している。
【0004】
【発明が解決しようとする課題】
前者の「モデルベースの‥‥」は、2値化が不要でハードウェアがシンプルとなるものの、連続の動的輪郭モデルを利用しているため、実線・破線の区別ができず、モデルが2本でそれぞれ左右白線に収束するよう定義されており、白線をまたぐような想定をしていないため、車線変更に対応できない、という問題がある。
【0005】
後者の「高速パターン照合手法‥‥」は、白線のかすれや悪天候に強く、計算コストも低いが、多くの道路形状テンプレートを持っておく必要があり、膨大なメモリを必要とするという難点がある。
そこで、本発明は、可能な限りシンプルなアルゴリズムと、安価な機器構成とにより実現でき、白線が実際に存在する位置を確実に検出でき、将来の高度な車両制御にも応用できる道路の白線検出方法を実現することを目的とする。
【0006】
【課題を解決するための手段】
本発明の道路の白線検出方法は、車載カメラで撮影された画像中の画素の輝度空間微分値を算出し、その極値を示す位置に基づいて、白線のエッジを抽出し、検出されたエッジの輝度値が近いものを白線候補としてまとめ、前記まとめられた白線候補を、それらの位置関係に基づいて左右別々にグループ化し、左グループ化及び右グループ化された白線候補の中から、それぞれ Hough 変換パラメータをもとに、時間的に連続する前後の画像間で前記白線候補同士の類似度を求め、類似度の高い白線グループを抽出し、前記抽出された結果に基づいて、左右別々に、1本の白線を検出する方法である(請求項1)。
【0007】
前記の方法によれば、エッジの検出には、一般的に利用されている2値化手法を用いずに、輝度空間微分値(隣接輝度値の差分)が極値を示している画素位置を採用するので、輝度値やコントラストに左右されずに、安定的にエッジが検出できるようになる。
そして、検出されたエッジの輝度値が近いものを白線候補としてまとめることにより、影やかすれ等の影響で輝度が異なってしまった部分を無理に一緒に検出せずに、細切れの白線候補として検出する。
【0008】
さらに、それら白線候補の位置関係(方向や位置)に基づいて統合するため、外乱の影響を受けずに、破線やかすれた白線でも白線検出が行える。
特に、テンプレートに当てはめて白線検出する手法と異なり、実際の白線位置をもとにして検出するので、白線位置の認識が正しくできる。
最後に、左右別々に1本ずつ白線を抽出する。左右別々に1本の白線を検出する手順は、 Hough 変換パラメータをもとに、時間的に連続する前後の画像間で白線グループの位置類似度を求め、類似度の大きい白線グループをそれぞれ1本抽出する。これにより、1本の連続した白線を決定することができる。なお類似度が小さければ、白線を見失ったと判断することができる。
また、 Hough 変換パラメータを採用したので、白線の見え方によらずに、単純な同一評価式が利用でき、パラメータ感度の一様性が確保できる。(例えば、一次式 y=ax+b のa及びbをパラメータとして採用すれば、 a= ∞付近と、 a=0 付近ではパラメータの重みをかえないといけない。)
極値を求めるとき、輝度空間微分値の平均値と標準偏差とを利用して、エッジ抽出範囲を決定することが好ましい(請求項2)。
【0009】
これにより、エッジ抽出範囲を固定しておくのでなく、画像ごとに動的に決められるため、主に路面上に存在する外乱(路面のしみ、轍)等の影響を極力排除することができる。また、明るさの変化に強く(ロバストに)なる。
白線候補をグループ化するときの基準として、白線候補間の横ずれ方向、結合角度を使用することが好ましい(請求項3)。
白線の路面に描かれた形状特徴(画像平面での情報)を利用して統合するので、路面や背景の外乱の影響を受けにくい。
【0010】
右白線候補となる線を求める画像上の範囲の中央に、オーバーラップ領域を設定することが好ましい(請求項)。
【0011】
これにより、車線変更のときに左白線から右白線への移行、あるいはその逆の移行がスムーズにできる。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態を、添付図面を参照しながら詳細に説明する。
1.画像データの定義(図1参照)
車載カメラで撮影された画像の座標系を、左上を原点(0,0)、右方向にx軸、下方向にy軸をとる。画像サイズは、横(x方向)640画素、縦(y方向)480画素である。
【0013】
画素値は、8ビット、0から255までの256段階で表す。0が黒、255が白となる。位置(x,y)の画素値をIm[y][x]と記述する。
図2は、白線検出処理を示す全体フローチャートである。この処理は、1枚の画像の取り込みごとに行う。画像の取り込みは、毎秒30枚行う(ステップS1)。以下、各ステップを分説する。
2.前処理
2.1 縮小
x方向y方向ともに、1画素おきにサンプリングする。これにより処理量が減り、処理時間を短縮することができる。
【0014】
2.2 スムージング
画像全体にわたり、画素値と下記オペレータとを畳み込むことにより、スムージングをする。
【0015】
【数1】

Figure 0003589293
【0016】
3.エッジ検出
白線が存在する範囲を、画面の下半分の領域に限定する。以下の処理は、画面の下半分の領域に対してのみ実行する。
3.1 画素エッジ強度を計算
空間微分(差分)をもとに、位置(x,y)のエッジ強度(Intensity)を下記の通り定義し、これを用いてエッジ検出を行う。
【0017】
エッジ強度=(Im[y][x+3]+Im[y][x+2]―Im[y][x−2]―Im[y][x−3])/10
エッジ強度を表す空間を「エッジ空間」という。
なお、この式は、一次元Prewitt型空間微分(−1 0 1)の注目点周辺5画素分の平均値をとったものと等価な式となっている。
3.2 エッジ検出
エッジ空間上で、極値を示す画素を選択することにより、エッジを検出する。選択されたエッジは、各々±の符号付き値を持ち、これに基づいて、以後の処理でグループ分けされる(後述)。
【0018】
ただし、路面ノイズなどの影響を排除するため、極値探索対象範囲を限定できるように工夫している。具体的には、画面下半分のエッジ強度の平均値と、標準偏差を計算し、下記範囲の外を極値探索対象範囲としている。
上限:エッジ強度の平均値+1.5×標準偏差
下限:エッジ強度の平均値−1.5×標準偏差
エッジ空間上のエッジ強度分布が正規分布に従うとすると、前記範囲には、全画素の約86.6%が含まれ、結果として、上部の極値探索対象範囲と下部の極値探索対象範囲に含まれる、それぞれ約6.7%の画素から、極値となる画素を抽出することになる。これにより、処理のスピードアップを図れる。
【0019】
4.白線候補の抽出
前項で抽出されたエッジを下記の手順に従いグループ分けして白線候補(ひと塊の白線の部分)を抽出する。
(1)画像最下段のエッジを白線候補の始点G0として登録する。
(2)白線候補始点G0の近傍画素であって、白線候補始点G0の強度と類似する強度のエッジを新たな白線候補Gとして登録する。以下、この処理を繰り返す。
このようにして、白線候補始点G0及びこれに関連して登録された白線候補Gにより、白線候補を構成する。
【0020】
近傍画素は、最大3段上までのラインから探索する。3ラインを超えたときは、別の白線始点として登録する。
横方向の探索範囲は、(探索ラインまでの距離)×(±3画素)とする。例えば、1ライン上にエッジがなく、2ライン目を探索する場合、±6画素を探索する。式で書くと、(x,y)位置を基準として、2ライン上なら、(x−6,y−2)から(x+6,y−2)までを探索する。
【0021】
前記強度の類似判定は、白線候補始点G0のエッジ強度の±50%以内かどうかで行う。
5.白線候補のグループ化
前項で抽出された白線候補を、下記の手順に従いグループ化する。
(1)構成画素数が一定以上の白線候補について、左側白線、右側白線の選別をする。なお、左右白線の存在位置が入れ替わる車線変更時でも極力追従できるよう、左右白線の探索領域はオーバーラップさせている。
【0022】
具体的には、白線候補の構成画素数の下限は3とする。
白線候補始点G0のx座標が160+α以下、かつ、エッジ強度が負であれば、左側白線の右端と判断し、白線候補始点G0のx座標が161−α以上、かつ、エッジ強度が正であれば、右側白線の左端と判断する。ここで、「160」という座標は、x方向の縮小後の画像サイズが640/2=320画素あるという前提で、半分の位置に設定している。
【0023】
αは、オーバーラップを考慮したもので、x方向の画像サイズの約10%(32画素)としている。
(2)下(y座標の大きいもの)から順に、白線候補をグループ化していく。その条件は、(a)下にある基準となる白線候補を延ばした直線と、検査対象となっている白線候補の始点との関係が結合範囲にあること、(b)両直線の傾きの差θが所定角度範囲以内であること、である。
【0024】
前記「結合範囲」とは、図3(a)に示すように、検査対象となっている白線候補2の始点G0から水平方向に引いた線分Lと、下にある基準となる白線候補を延ばした直線とが交わる点をPとすると、長さG0Pが、±所定数の画素の範囲とする。ただし、PがG0より右側にあるときは正、PがG0より左側にあるときは負とする。図3(a)では所定数を10としている。
前記「所定角度範囲」とは、図3(b)に示すように、前記点Pが、始点G0の右にある場合、−5°〜+20°とし、図3(c)に示すように、左にある場合は、−20°〜+5°とする。
【0025】
6.三次元座標変換
画面を下記の式を用いて、白線グループの始点G0を実空間座標に3次元座標変換する。
Z(車両進行方向距離)=Dividend(η,sinψ,cosψ)/Divider(η,sinψ,cosψ)
X(車両横方向距離)=Conv2X(ξ,Z)
Conv2X(ξ,Z)=(ξ/F)[(Z cosψ)+(H sinψ)]
Divider(η, sinψ,cosψ)=sinψ−(η/F)cosψ
Dividend(η,sinψ,cosψ)=H[cosψ+(η/F)sinψ]
H:カメラの設置高さ(m)
F:レンズ焦点距離(m)
ψ:カメラ光軸の俯角(rad)
ξ,ηは、撮像面中心(原点)からの距離(m)を表す(y軸は上方が正、x軸は右向きが正)。
【0026】
図4は、3次元座標変換前後の画像を示す図であり、(a)はカメラで撮像したエッジ画像を示す図、(b)は3次元座標変換後の画像を示す図である。
7.最も信頼性の高い左右白線の抽出
グループ化された白線候補の中から、左右白線を1本ずつ抽出する。図5は、実空間における複数の白線グループを示す図である。図6は、本項の手順を説明するためのフローチャートである。
【0027】
(1)3次元座標変換した場合の白線候補始点G0が、横方向±4m以内、前方30m以内(図5の太線枠参照)にあるもののうち、3次元座標変換した場合の白線候補の長さL1,L2,‥‥が最大のものを抽出する(ステップS66)。
(2) 3次元座標変換前の画面について、構成画素数が一定数(例えば5とする)以上の白線候補を選択して、ハフ(Hough)変換パラメータを算出する(ステップS67)。
【0028】
ここでハフ変換とは、xy直交座標系で表した直線
xcosθ+ysinθ=r
を(r,θ)平面に変換することをいう。極座標の原点は、左側白線候補の場合図7(a)に示すように画面の左上とし、右側白線候補の場合図7(b)に示すように画面の右上とする。ハフ変換パラメータをr,θとする。点線は前回撮影した画面から抽出した白線、実線は今回撮影した画面から抽出した白線であり、図7では、取得時刻の異なる2つの白線を同時に描いている。
【0029】
(3) ハフ変換パラメータをもとにして、前回検出した白線候補との類似度を求め、類似度が最も高いものを今回の白線候補として左右別々に抽出する(ステップS62)。
類似度を判断するのに、判定値
100|θ0−θ1|+|r0−r1|
を採用する。r0,θ0は前回の白線候補のハフ変換パラメータであり、r1,θ1は今回の白線候補のハフ変換パラメータである。「100」は重み係数(一定とする)である。この判定値が小さい方が類似度が高い。
【0030】
前記判定値が30を超えた場合は、白線位置を見失ったと判断する(ステップS63のNO)。このときは、ステップS66に飛び、改めて(1)の方式で最適候補を探索し直す。
なお、図6で白線位置を見失ったときには、ステップS66に進まず、ハフ変換パラメータを捨てて、次のサイクルでステップS66からスタートしてもよい。
【0031】
このようにして抽出された左右白線の、ハフ変換パラメータを更新し(ステップS64)、左右白線を特定する(ステップS65)。
8.道路形状・白線位置推定
以下は、白線位置情報をデータ化する手順である。図8を参照しながら説明する。
(1)左右白線を表す各々の左右白線を円とみなしてその中心及び半径Rを計算する。
【0032】
(2)左右白線位置の推定
左右白線の手前側の2点の座標を直線的に延ばし、カメラ直下の左右白線位置Sを推定する。
【0033】
【発明の効果】
以上のように本発明の道路の白線検出方法によれば、可能な限りシンプルなアルゴリズムと、安価な機器構成で、白線が実際に存在する位置を確実に検出できる。したがって、将来の高度な車両走行制御に最適な道路の白線検出方法とすることができる。
【図面の簡単な説明】
【図1】画像データの定義図である。
【図2】白線検出処理を示す全体フローチャートである。
【図3】白線候補の統合条件を説明するための図であり、(a)は、下にある基準となる白線候補と検査対象となっている白線候補との位置関係を示す図、(b)及び(c)は、両直線の角度関係を示す図である。
【図4】3次元座標変換前後の画像を示す図であり、(a)はカメラで撮像したエッジ画像を示す図、(b)は3次元座標変換後の画像を示す図である。
【図5】3次元座標変換した場合の白線候補の初期値を抽出する枠を示す図である。
【図6】左右白線を1本ずつ抽出する手順を説明するためのフローチャートである。
【図7】ハフ変換パラメータr,θを解説するための図であり、(a)は左側白線候補の場合、(b)は右側白線候補の場合を示す。
【図8】白線位置情報をデータ化する手順を示す図である。
【符号の説明】
S カメラ直下の左右白線位置
R 左右白線の半径
r,θ ハフ変換パラメータ
L1,L2 3次元座標変換した場合の白線候補の長さ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention analyzes a forward image captured by a vehicle-mounted camera, and there are various types of road lane boundary lines (white lines, yellow lines, solid lines, broken lines, and the like. White line detection method for recognizing a white line).
[0002]
[Prior art]
In realizing a driving support system for an automobile, road environment recognition using images is expected.
As one of road environment recognition, there is automatic white line recognition of a driving lane, and various methods have been developed.
Oike "Road White Line Recognition by Model-Based Recognition Method" (Technical Report PRMU99-211 (January 2000)) proposes white line recognition using a string model that does not require binarization processing.
[0003]
Ninomiya, Takahashi, Ota "Apply a template in the" High-speed pattern matching method and its application to lane detection "(3rd next-generation runway display / recognition technology workshop material, Koken 3-4-1, November 1999). In this way, a method for performing road structure verification has been proposed.
[0004]
[Problems to be solved by the invention]
The former “model-based ‥‥” does not require binarization and simplifies the hardware. However, since a continuous active contour model is used, it is impossible to distinguish between a solid line and a broken line. There is a problem that the book is defined so as to converge to the left and right white lines, and it is not assumed that the white line is crossed, so that it is impossible to cope with a lane change.
[0005]
The latter, “High-speed pattern matching method ‥‥”, is resistant to fading white lines and bad weather, and has a low computational cost, but requires a large number of road shape templates and requires a huge amount of memory. .
Therefore, the present invention can be realized by an algorithm as simple as possible and an inexpensive device configuration, can reliably detect the position where a white line actually exists, and can detect road white lines that can be applied to advanced vehicle control in the future. The aim is to realize the method.
[0006]
[Means for Solving the Problems]
The road white line detection method of the present invention calculates a luminance spatial differential value of a pixel in an image captured by a vehicle-mounted camera, extracts a white line edge based on a position indicating the extreme value, and detects the detected edge. Are grouped as white line candidates, and the grouped white line candidates are separately grouped on the left and right based on their positional relationship, and Hough is selected from among the left and right grouped white line candidates. Based on the conversion parameters, determine the similarity between the white line candidates between images before and after successive in time, extract a white line group having a high similarity, and separately based on the extracted result, left and right separately. This is a method for detecting one white line (claim 1).
[0007]
According to the method described above, the edge position is detected without using a commonly used binarization method, and the pixel position at which the luminance space differential value (difference between adjacent luminance values) indicates an extreme value is determined. Since it is adopted, the edge can be detected stably without being influenced by the brightness value and the contrast.
Then, by integrating the detected edges having similar luminance values as white line candidates, the portions having different luminances due to the influence of shadows or blurs are not forcibly detected together, but are detected as thin white line candidates. I do.
[0008]
Further, since integration is performed based on the positional relationship (direction and position) of these white line candidates, white lines can be detected even with broken lines or faint white lines without being affected by disturbance.
In particular, unlike the method of detecting a white line by applying it to a template, the detection is performed based on the actual white line position, so that the white line position can be correctly recognized.
Finally, one white line is extracted for each of the left and right sides. The procedure for detecting one white line separately for the left and right is as follows : based on the Hough transformation parameter, the position similarity of the white line group is determined between the images before and after temporally continuous, and one white line group having a large similarity is determined for each one line. Extract. As a result, one continuous white line can be determined. If the similarity is small, it can be determined that the white line has been lost.
In addition, since the Hough transform parameter is adopted, a simple same evaluation formula can be used regardless of how the white line looks, and uniformity of parameter sensitivity can be secured. (For example, if a and b of the primary expression y = ax + b are adopted as parameters , the parameter weights must be changed near a = ∞ and near a = 0. )
When obtaining the extremum, it is preferable to determine the edge extraction range using the average value and the standard deviation of the luminance space differential values (claim 2).
[0009]
As a result, the edge extraction range is not fixed, but is determined dynamically for each image, so that the influence of disturbances (road surface spots, ruts, etc.) mainly present on the road surface can be eliminated as much as possible. In addition, it becomes strong (robust) against a change in brightness.
It is preferable to use a lateral shift direction and a joint angle between the white line candidates as a reference when grouping the white line candidates.
Since the integration is performed using the shape feature (information on the image plane) drawn on the road surface of the white line, it is hardly affected by disturbance of the road surface or the background.
[0010]
In the middle of the range on the image to determine a line in the left right white line candidate, it is preferable to set the overlap region (claim 4).
[0011]
This makes it possible to smoothly shift from the left white line to the right white line or vice versa when changing lanes.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
1. Definition of image data (see Fig. 1)
The coordinate system of the image captured by the on-vehicle camera is set to the origin (0, 0) at the upper left, the x axis to the right, and the y axis to the lower. The image size is 640 pixels in the horizontal (x direction) and 480 pixels in the vertical (y direction).
[0013]
The pixel value is represented by 8 bits, 256 levels from 0 to 255. 0 is black and 255 is white. The pixel value at the position (x, y) is described as Im [y] [x].
FIG. 2 is an overall flowchart showing the white line detection processing. This process is performed every time one image is captured. Images are captured at 30 sheets per second (step S1). Hereinafter, each step will be described separately.
2. Preprocessing 2.1 Sampling is performed every other pixel in both the reduced x direction and the y direction. As a result, the processing amount is reduced, and the processing time can be shortened.
[0014]
2.2 Smoothing Smoothing is performed by convolving the pixel values with the following operators over the entire image.
[0015]
(Equation 1)
Figure 0003589293
[0016]
3. The range where the edge detection white line exists is limited to the lower half area of the screen. The following processing is executed only for the lower half area of the screen.
3.1 Calculation of Pixel Edge Intensity Based on spatial differentiation (difference), edge intensity (Intensity) at position (x, y) is defined as follows, and edge detection is performed using this.
[0017]
Edge strength = (Im [y] [x + 3] + Im [y] [x + 2] -Im [y] [x-2] -Im [y] [x-3]) / 10
The space representing the edge strength is called “edge space”.
Note that this equation is equivalent to the one-dimensional Prewitt-type spatial derivative (-1 0 1) obtained by averaging five pixels around the target point.
3.2 Edge Detection An edge is detected by selecting a pixel showing an extreme value in the edge space. The selected edges each have a signed value of ±, and based on this, are grouped in the subsequent processing (described later).
[0018]
However, in order to eliminate the influence of road surface noise and the like, the invention is devised so as to limit the extremum search target range. Specifically, the average value and the standard deviation of the edge strength in the lower half of the screen are calculated, and the outside of the following range is set as the extreme value search target range.
Upper limit: average value of edge intensity + 1.5 × standard deviation Lower limit: average value of edge intensity−1.5 × standard deviation Assuming that the edge intensity distribution in the edge space follows a normal distribution, the above range includes approximately 86.6% are included, and as a result, an extreme value pixel is extracted from about 6.7% of the pixels included in the upper extreme value search target range and the lower extreme value search target range, respectively. Become. As a result, the processing speed can be increased.
[0019]
4. Extraction of White Line Candidates Edges extracted in the preceding paragraph are grouped according to the following procedure to extract white line candidates (a portion of a white line as a whole).
(1) The lowermost edge of the image is registered as the starting point G0 of the white line candidate.
(2) An edge which is a pixel near the white line candidate start point G0 and has an intensity similar to that of the white line candidate start point G0 is registered as a new white line candidate G. Hereinafter, this process is repeated.
In this way, a white line candidate is constituted by the white line candidate start point G0 and the white line candidate G registered in relation thereto.
[0020]
Neighboring pixels are searched from a line up to three steps at the maximum. If the number exceeds three lines, it is registered as another white line start point.
The search range in the horizontal direction is (distance to search line) × (± 3 pixels). For example, when there is no edge on one line and the second line is searched, ± 6 pixels are searched. In terms of the expression, if two lines are on the basis of the (x, y) position, a search is made from (x-6, y-2) to (x + 6, y-2).
[0021]
The intensity similarity determination is performed based on whether or not the edge intensity of the white line candidate start point G0 is within ± 50%.
5. Grouping of white line candidates The white line candidates extracted in the preceding section are grouped according to the following procedure.
(1) For a white line candidate having a certain number of constituent pixels or more, a left white line and a right white line are selected. Note that the search areas for the left and right white lines are overlapped so that the left and right white lines can be followed as much as possible when changing lanes where the positions of the left and right white lines are interchanged.
[0022]
Specifically, the lower limit of the number of pixels constituting the white line candidate is three.
If the x coordinate of the white line candidate start point G0 is 160 + α or less and the edge strength is negative, it is determined that the x coordinate of the white line candidate start point G0 is 161-α or more and the edge strength is positive. For example, it is determined to be the left end of the right white line. Here, the coordinate “160” is set to a half position on the assumption that the image size after reduction in the x direction is 640/2 = 320 pixels.
[0023]
α is about 10% (32 pixels) of the image size in the x direction in consideration of the overlap.
(2) White line candidates are grouped in order from the bottom (larger y coordinate). The conditions are as follows: (a) the relationship between the straight line obtained by extending the lower reference white line candidate and the starting point of the white line candidate to be inspected is within the coupling range; (b) the difference between the slopes of the two lines θ is within a predetermined angle range.
[0024]
As shown in FIG. 3A, the “joining range” refers to a line segment L drawn in the horizontal direction from the start point G0 of the white line candidate 2 to be inspected and a white line candidate below as a reference. Assuming that a point at which the extended straight line intersects is P, the length G0P is within a range of ± a predetermined number of pixels. However, when P is on the right side of G0, it is positive, and when P is on the left side of G0, it is negative. In FIG. 3A, the predetermined number is set to 10.
The “predetermined angle range” is, as shown in FIG. 3B, when the point P is on the right of the starting point G0, −5 ° to + 20 °, and as shown in FIG. When it is on the left, it is -20 ° to + 5 °.
[0025]
6. The starting point G0 of the white line group is three-dimensionally transformed into real space coordinates on the three-dimensional coordinate transformation screen using the following equation.
Z (distance in the vehicle traveling direction) = Dividend (η, sinψ, cosco) / Divider (η, sinψ, cosψ)
X (vehicle lateral distance) = Conv2X (ξ, Z)
Conv2X (ξ, Z) = (ξ / F) [(Z cosψ) + (H sinψ)]
Divider (η, sinψ, cosψ) = sinψ- (η / F) cosψ
Divendend (η, sinψ, cosψ) = H [cosψ + (η / F) sinψ]
H: Camera installation height (m)
F: Lens focal length (m)
ψ: Depression angle (rad) of the camera optical axis
ξ and η represent the distance (m) from the center (origin) of the imaging plane (the y-axis is positive upward and the x-axis is positive rightward).
[0026]
4A and 4B are diagrams showing images before and after the three-dimensional coordinate conversion. FIG. 4A is a diagram showing an edge image captured by a camera, and FIG. 4B is a diagram showing an image after the three-dimensional coordinate conversion.
7. Extraction of the most reliable left and right white lines From the white line candidates in the group, left and right white lines are extracted one by one. FIG. 5 is a diagram showing a plurality of white line groups in the real space. FIG. 6 is a flowchart for explaining the procedure in this section.
[0027]
(1) The length of the white line candidate when the three-dimensional coordinate conversion is performed, when the starting point G0 of the white line candidate when the three-dimensional coordinate conversion is performed is within ± 4 m in the horizontal direction and within 30 m in front (see the thick line frame in FIG. 5). L1, L2,... Are extracted with the largest value (step S66).
(2) On the screen before the three-dimensional coordinate conversion, a white line candidate having a certain number of pixels (for example, 5) or more is selected, and a Hough conversion parameter is calculated (step S67).
[0028]
Here, the Hough transform means a straight line xcosθ + ysinθ = r expressed in an xy orthogonal coordinate system.
To the (r, θ) plane. The origin of the polar coordinates is the upper left of the screen as shown in FIG. 7A for a left white line candidate, and the upper right of the screen as shown in FIG. 7B for a right white line candidate. The Hough transform parameters are r and θ. The dotted line is a white line extracted from the screen shot last time, and the solid line is a white line extracted from the screen shot this time. In FIG. 7, two white lines having different acquisition times are simultaneously drawn.
[0029]
(3) Based on the Hough transform parameters, the similarity to the previously detected white line candidate is obtained, and the one with the highest similarity is separately extracted as the current white line candidate (step S62).
To determine the similarity, the determination value 100 | θ0−θ1 | + | r0−r1 |
Is adopted. r0 and θ0 are Hough transformation parameters of the previous white line candidate, and r1 and θ1 are Hough transformation parameters of the current white line candidate. “100” is a weight coefficient (constant). The smaller this determination value is, the higher the similarity is.
[0030]
If the determination value exceeds 30, it is determined that the position of the white line has been lost (NO in step S63). In this case, the process jumps to step S66, and the optimum candidate is searched again by the method (1).
When the position of the white line is lost in FIG. 6, the process may not proceed to step S66, but may discard the Hough transform parameter and start from step S66 in the next cycle.
[0031]
The Hough transform parameters of the left and right white lines thus extracted are updated (step S64), and the left and right white lines are specified (step S65).
8. Road Shape / White Line Position Estimation The following is a procedure for converting white line position information into data. This will be described with reference to FIG.
(1) The center and radius R are calculated by regarding each of the left and right white lines representing the left and right white lines as a circle.
[0032]
(2) Estimation of left and right white line positions The coordinates of two points on the near side of the left and right white lines are linearly extended, and the left and right white line positions S immediately below the camera are estimated.
[0033]
【The invention's effect】
As described above, according to the road white line detection method of the present invention, the position where the white line actually exists can be reliably detected with the simplest possible algorithm and inexpensive device configuration. Therefore, it is possible to provide a road white line detection method optimal for future advanced vehicle traveling control.
[Brief description of the drawings]
FIG. 1 is a definition diagram of image data.
FIG. 2 is an overall flowchart illustrating a white line detection process.
FIGS. 3A and 3B are diagrams for explaining integration conditions of white line candidates, and FIG. 3A is a diagram illustrating a positional relationship between a white line candidate serving as a reference below and a white line candidate to be inspected; And (c) are diagrams showing the angular relationship between the two straight lines.
4A and 4B are diagrams showing images before and after three-dimensional coordinate conversion, where FIG. 4A is a diagram showing an edge image captured by a camera, and FIG. 4B is a diagram showing an image after three-dimensional coordinate conversion.
FIG. 5 is a diagram illustrating a frame for extracting an initial value of a white line candidate when three-dimensional coordinate conversion is performed.
FIG. 6 is a flowchart illustrating a procedure for extracting left and right white lines one by one.
FIGS. 7A and 7B are diagrams for explaining Hough transform parameters r and θ, wherein FIG. 7A shows a case of a left white line candidate, and FIG. 7B shows a case of a right white line candidate.
FIG. 8 is a diagram showing a procedure for converting white line position information into data.
[Explanation of symbols]
S Right and left white line position R immediately below the camera Radius of right and left white line r, θ Hough transformation parameters L1 and L2 Length of white line candidate after three-dimensional coordinate transformation

Claims (4)

車載カメラで撮影された画像中の画素の輝度空間微分値を算出し、
その極値を示す位置に基づいて、白線のエッジを抽出し、
検出されたエッジの輝度値が近いものを白線候補としてまとめ、
前記まとめられた白線候補を、それらの位置関係に基づいて左右別々にグループ化し、
左グループ化及び右グループ化された白線候補の中から、それぞれ Hough 変換パラメータをもとに、時間的に連続する前後の画像間で前記白線候補同士の類似度を求め、類似度の高い白線グループを抽出し、
前記抽出された結果に基づいて、左右別々に、1本の白線を検出することを特徴とする道路の白線検出方法。
Calculate the luminance space differential value of the pixel in the image taken by the on-board camera,
Extract the edge of the white line based on the position showing the extreme value,
Those with similar luminance values of the detected edges are grouped as white line candidates,
The grouped white line candidates are grouped separately on the left and right based on their positional relationship,
From the white line candidates grouped into the left group and the right group, the similarity between the white line candidates between the images before and after temporally consecutive is calculated based on the Hough transform parameter, and the white line group having a high similarity is calculated. Extract
A white line detection method for roads, wherein one white line is detected separately for left and right based on the extracted result .
極値を求めるとき、輝度空間微分値の平均値と標準偏差とを利用して、エッジ抽出範囲を決定することを特徴とする請求項1記載の道路の白線検出方法。2. The road white line detection method according to claim 1, wherein when the extremum is obtained, an edge extraction range is determined using an average value and a standard deviation of the luminance space differential values. 白線をグループ化するときの基準として、白線候補間の横ずれ方向、結合角度を使用することを特徴とする請求項1記載の道路の白線検出方法。The road white line detection method according to claim 1, wherein a lateral shift direction and a joint angle between the white line candidates are used as a reference when grouping the white lines. 左右白線候補となる線を求める画像上の範囲の中央に、オーバーラップ領域を設定したことを特徴とする請求項1記載の道路の白線検出方法。2. The road white line detection method according to claim 1, wherein an overlap area is set at the center of a range on the image for obtaining lines as left and right white line candidates.
JP2000371645A 2000-12-06 2000-12-06 Road white line detection method Expired - Fee Related JP3589293B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000371645A JP3589293B2 (en) 2000-12-06 2000-12-06 Road white line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000371645A JP3589293B2 (en) 2000-12-06 2000-12-06 Road white line detection method

Publications (2)

Publication Number Publication Date
JP2002175534A JP2002175534A (en) 2002-06-21
JP3589293B2 true JP3589293B2 (en) 2004-11-17

Family

ID=18841337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000371645A Expired - Fee Related JP3589293B2 (en) 2000-12-06 2000-12-06 Road white line detection method

Country Status (1)

Country Link
JP (1) JP3589293B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682033B2 (en) 2011-01-12 2014-03-25 Denso Corporation Boundary detection device for vehicles

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2391556T3 (en) 2002-05-03 2012-11-27 Donnelly Corporation Object detection system for vehicles
JP3772845B2 (en) 2003-03-24 2006-05-10 コニカミノルタホールディングス株式会社 Image processing program, image processing apparatus, and photographing apparatus
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4868964B2 (en) * 2006-07-13 2012-02-01 三菱ふそうトラック・バス株式会社 Running state determination device
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
JP4697480B2 (en) 2008-01-11 2011-06-08 日本電気株式会社 Lane recognition device, lane recognition method, and lane recognition program
JP6169366B2 (en) 2013-02-08 2017-07-26 株式会社メガチップス Object detection device, program, and integrated circuit
JP6106229B2 (en) * 2015-08-10 2017-03-29 富士重工業株式会社 Lane recognition device
JP7453008B2 (en) * 2020-02-06 2024-03-19 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method
JP7556406B2 (en) 2020-12-03 2024-09-26 日本電気株式会社 Line position estimation device, method and program
DE112020007667T5 (en) * 2020-12-08 2023-09-07 Mitsubishi Electric Corporation RAIL DETECTION DEVICE AND RAIL DETECTION METHOD
JP7149385B1 (en) 2021-07-12 2022-10-06 株式会社デンソーテン Lane detection device, lane detection method, and lane detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682033B2 (en) 2011-01-12 2014-03-25 Denso Corporation Boundary detection device for vehicles

Also Published As

Publication number Publication date
JP2002175534A (en) 2002-06-21

Similar Documents

Publication Publication Date Title
CN109784344B (en) Image non-target filtering method for ground plane identification recognition
US8611585B2 (en) Clear path detection using patch approach
EP2958054B1 (en) Hazard detection in a scene with moving shadows
US8699754B2 (en) Clear path detection through road modeling
EP0827127B1 (en) Local positioning apparatus, and method therefor
JP4016735B2 (en) Lane mark recognition method
US8634593B2 (en) Pixel-based texture-less clear path detection
JP4450532B2 (en) Relative position measuring device
KR101569919B1 (en) Apparatus and method for estimating the location of the vehicle
JP3589293B2 (en) Road white line detection method
CN107862290A (en) Method for detecting lane lines and system
JP2008158958A (en) Road surface determination method and road surface determination device
CN105809149A (en) Lane line detection method based on straight lines with maximum length
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
JP2007179386A (en) Method and apparatus for recognizing white line
CN104636724A (en) Vehicle-mounted camera rapid pedestrian and vehicle detection method based on goal congruence
CN109544635A (en) It is a kind of based on the automatic camera calibration method for enumerating exploration
CN107944350B (en) Monocular vision road identification method based on appearance and geometric information fusion
CN117078717A (en) Road vehicle track extraction method based on unmanned plane monocular camera
Takahashi et al. A robust lane detection using real-time voting processor
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
Espino et al. Rail and turnout detection using gradient information and template matching
Gupta et al. Robust lane detection using multiple features
JP2003317106A (en) Travel path recognition device
JPH05151341A (en) Running route detecting device for vehicle

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040810

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080827

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080827

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090827

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees