JP2007219767A - 車線検出方法および装置 - Google Patents

車線検出方法および装置 Download PDF

Info

Publication number
JP2007219767A
JP2007219767A JP2006038670A JP2006038670A JP2007219767A JP 2007219767 A JP2007219767 A JP 2007219767A JP 2006038670 A JP2006038670 A JP 2006038670A JP 2006038670 A JP2006038670 A JP 2006038670A JP 2007219767 A JP2007219767 A JP 2007219767A
Authority
JP
Japan
Prior art keywords
region
lane
road
image
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006038670A
Other languages
English (en)
Inventor
Takio Kurita
多喜夫 栗田
Eisuke Adachi
栄輔 安達
Nobuyuki Otsu
展之 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2006038670A priority Critical patent/JP2007219767A/ja
Publication of JP2007219767A publication Critical patent/JP2007219767A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】ハフ変換を基本とし、処理量を少なくし、リアルタイムでの処理を実現できる車線検出法を提供する。
【解決手段】撮像装置の撮像画像上においてエッジが検出された点を車両の進行方向に直交する道路上の軸の座標に変換し、前記道路上の軸を等間隔で区切った領域のうち対応する領域に投票を行い、すべてのエッジ点において前述した処理を行ったあとに注目する前記道路上の領域が近傍領域内で最大のときその領域に車線境界が存在するとみなす処理を行うことを特徴とする。 また上記の車線検出方法において、前記道路上の軸を等間隔で区切った各領域の代表点を撮像画像上の直線に変換し、投票の重みを、前記直線へのエッジ点からの距離に応じた重みと、エッジ点における輝度値勾配の方向と前記直線の方向とのずれに応じた重みとの積とすることを特徴とする。
【選択図】図1

Description

本発明は、車両に対し所定状態で取り付けられた撮像装置により取得した路面画像を画像処理して平行に描かれた車線を検出する車線検出方法および装置に関する。
車載カメラで撮影された画像上において車線を検出することは,交通の状況や車の位置を推定するための基本的な処理である。近年,様々な車線検出手法が提案されている(例えば、非特許文献1〜7参照)。車線検出は,あるモデルを画像から得られたエッジ点や車線マーカーに当てはめることにより行われる。McDonaldの非特許文献2は,車線境界の消失点が画像内である特定の領域内に収まるという仮定を用いることにより,直線モデルのパラメータ空間を制限したハフ変換を用いて車線境界を検出する手法を提案している。
N. Apostoloff and A. Zelinsky. Vision in and out of vehicles:Integrated driver and road scene monitoring. The Interna−tional Journal of Robotics Research, Vol. 23, No. 4−5, pp.513 538, April−May 2004. J. B. Mc Donald. Application of the hough transform tolane detection and following on high speed roads. In Proc.of the Irish Signals and Systems Conference, 2001. V. Kastrinaki, M. Zervakis, and K. Kalaitzakis. A survey ofvideo processing techniques for traffic applications. Imageand Vision Computing, Vol. 21, pp. 359 381, 2003. J. W. Lee, U. K. Yi, and K. R. Bark. A cumulative dis−tribution function of edge direction for road−lane detection. ICE Trans. Inf. F4 syst., Vol. E84−D, No. 9, pp. 12061216, September 2001. Q. Li, N. Zhang, and H. Cheng. Springrobot: A proto−type autonomous vehicle and its algorithms for lane detec−tion. IEEE Trans. Transportation systems, Vol. 5, No. 4,pp. 300 308, December 2004. J. W. Park, J. W. Lee, and K. Y. thong. A lane−curve detec−tion based on an lcf. Pattern Recognition Letters, Vol. 24,pp. 2301 2313, 2003. T. M. van Veen and F. C. A. Croen. Discretization errorsin the hough transform. Pattern Recognition, Vol. 14, No.1−6, pp. 137 145, 1981.
車線のモデルが複雑な場合、計算時間が増大し検出された車線も不安定になる。
そのため、問題に応じてモデルの次元数を削減する必要がある。
本発明では、車載カメラで撮影した画像から,車の姿勢を考慮することで、車線のモデルを一次元とする。本手法では,カメラを載せた車の姿勢が道路面に対して変化せず,前もって調節されていることを前提とする。
具体的には、以下の手段を採用する。
(1) 少なくとも、路面に対し一定角度になるように車両に搭載した撮像装置と、前記撮像装置の撮像画像を取り込んで所定の処理を行い画像上の直線を検出する処理を行う処理装置とを備えた車線検出装置において、
前記撮像装置の撮像画像上においてエッジが検出された点を車両の進行方向に直交する道路上の軸の座標に変換し、前記道路上の軸を等間隔で区切った領域のうち対応する領域に投票を行い、すべてのエッジ点において前述した処理を行ったあとに注目する前記道路上の領域が近傍領域内で最大のときその領域に車線境界が存在するとみなす処理を行うことを特徴とする。
(2) 上記(1)記載の車線検出方法において、
前記車線検出装置において、前記道路上の軸を等間隔で区切った各領域の代表点を撮像画像上の直線に変換し、投票の重みを、前記直線へのエッジ点からの距離に応じた重みと、エッジ点における輝度値勾配の方向と前記直線の方向とのずれに応じた重みとの積とすることを特徴とする請求項1記載の車線検出方法。
(3) 上記(1)記載の車線検出方法において、
前記車線検出装置に画像表示装置を組み込み、前記注目している領域の投票値がその近傍領域内で最大のときその領域を車線境界とみなす処理を行った結果を前記撮像画像上に白線のエッジとして表示した画像を前記画像表示装置に表示するようにしたことを特徴とする。
(4) 路面に対し一定角度になるように車両に搭載した撮像装置と、前記撮像装置の撮像画像を取り込んで所定の処理を行い画像上の直線を検出する処理を行う処理装置とを備えた車線検出装置であって、前記処理装置により、
前記撮像装置の撮像画像上においてエッジが検出された点を車両の進行方向に直交する道路上の軸の座標に変換し、前記道路上の軸を等間隔で区切った領域のうち対応する領域に投票を行い、すべてのエッジ点において前述した処理を行ったあとに注目する前記道路上の領域が近傍領域内で最大のときその領域に車線境界が存在するとみなす処理を行うことを特徴とする。
(5) 前記(4)記載の車線検出装置であって、前記処理装置により、前記道路上の軸を等間隔で区切った各領域の代表点を撮像画像上の直線に変換し、投票の重みを、前記直線へのエッジ点からの距離に応じた重みと、エッジ点における輝度値勾配の方向と前記直線の方向とのずれに応じた重みとの積とすることを特徴とする。
(6) 前記(4)記載の車線検出装置であって、前記処理装置により、前記車線検出装置に画像表示装置を組み込み、前記注目している領域の投票値がその近傍領域内で最大のときその領域を車線境界とみなす処理を行った結果を前記撮像画像上に白線のエッジとして表示した画像を前記画像表示装置に表示するようにしたことを特徴とする。
本発明により、想定外の直線を検出しない安定した車線検出を少ないコストで実現できる。
車両の進行方向に対し垂直な道路平面上の軸を等間隔に分割し、各領域にセルを割り当てる。画像上にエッジが検出されたら、対応するセルに対し投票を行う。このとき、セルが代表する画像上の直線からエッジまでの距離が近い程、投票する重みを増加させる。
全てのエッジに対して投票を行った後、投票値が一定値を超えかつ近傍セル内のどのセルよりも投票値が高かった場合、そのセルが代表する直線を車線とみなす。
(車線のモデル):
図1は,カメラと道路面との位置・姿勢の関係を示す。図2は図1の座標系を示す。カメラの焦点Оを原点とした世界座標系を(X,Y,Z)で表す。初めに,カメラの載った車の姿勢を表す三つの単位ベクトルp=(p,p,p、q=(q,q,q、s=(s,s,sを導入する。但し,ベクトルp、q、sは互いに直交する。ベクトルqは車の進行方向の逆向きであり,ベクトルsは道路平面と直交する。道路面とカメラの焦点との距離は
と正規化する。このとき、道路面上の座標系を(x,y)で表す。但し、x軸とy軸は,それぞれ単位ベクトルp、qに平行とする。車線の境界はx軸上の一点で表す。
画像上での座標(x,y)からx軸への変換は、次式を用いて行う。
但し、
である。
(投票):
軸のある範囲を等間隔なセルに分割し、セルの番号をjとする。セルjの領域の中心位置をx とする。また、検出されたi番目のエッジ点の特徴量として、画像上の位置(x,y)とその点の輝度値勾配の方向ψを用いる。投票は、次式のように行う。
但し、Nは検出されたエッジ点の数である。
はセルjに対応する画像上の直線の角度θからのψのずれによる重みであり、変数ψ、平均θ、標準偏差σθのガウス関数とする(非特許文献7参照)。ここで、θはx から次式を用いて算出される。
は同じくセルに対応する画像上の直線からエッジ点(x,y)までの距離
による重みを表し(図3、4参照)、変数ρij、平均ρ、標準偏差σρのガウス関数とする。但し、ρは式(3)から計算されるθから次式のように算出される。
また、ρijはθ方向における原点oとエッジ点(x,y)の間の幅であり、次式から算出される。
これは、直線度(特許第3653542号公報参照)に相当する。
式(2)を素直に実行する場合、エッジ点一つにつき全てのセルに対して重みを計算しなければならないが、それでは計算時間がかかるため、投票を行うセルはσρに応じて決める。具体的には、セルjに対応する直線とエッジ点iとの間の距離
が3σρ以上なら、そのセルへの投票は行わないとする。
(ピーク検出):
車線境界は、
のピークを探索することで検出する。注目しているセルjの投票値
がその近傍セル
内で最大のとき、セルjをピークとみなす。このとき、
を満たさないセルに関しては、探索の領域から除外する。
(実験):
(設定条件):
テスト動画テスト動画は高速道路を走行する車に載せたカメラから前方を撮影したものを用いた。エッジを検出するためにエッジ検出器を用いた。エッジの検出は前もって設定した“道路領域”に対して行った。図5は,幾つかのフレームにおけるエッジの検出結果を示す。但し,画像中の“黒”の領域はエッジ領域を示す。図の上段の画像は画像平面におけるエッジを示し,下段の画像は道路平面を真上から眺めたときのエッジ画像である。また,(a)から(d)までの各列は異なるフレームにおける結果である。
(実験条件):
車線のモデルに関する比較のため、gradient weighted Hough transform(GWHT)[7]を適用した。GWHTは,画像平面において次式のモデルを用いて直線を検出する手法である。
モデルのパラメータ空間
に関して、次の二つの場合で実行した。
A. 式(1)を用いてエッジ点(x,y)に対応するx軸上の点x を求め、x に応じて次式のように
を決定する。
B. (投票):の節で説明したようにガウス関数とした。但し、σρ=0.56 [pixel]に設定した。
上述のA. B. においてパラメータ空聞
を100個のセルに分割した。パラメータ空聞上でのピーク検出のための近傍領域は,5[cell]に設定した。また、
に対する閾値はλ=20とした。
(実験結果):
図6は,GWHTによる直線の検出結果を原画像上に描いたものである。この図の(a)と(b)において,明らかに車線境界とは違うところに直線が検出されているのがわかる。図7は,提案手法による車線境界の検出結果である。但し,上段はA.の場合,下段はB.の場合の結果を示す。図6において誤って検出された車線境界が,図7では検出されていないのがわかる。また、図7の(a)と(b)を見ると、A.の場合で誤った所に車線境界が検出されているのがわかる。これらは,遠くの対向車のヘッドライトからのエッジに対して当てはめられたものである。図8は,提案手法におけるパラメータ空間への投票結果
である。図内の点線は検出された車線境界のパラメータを示す。対向車のヘッドライトのエッジに対応するピークは,A.の場合に比べてB.の場合の方が抑制されているのがわかる。これは、該当するエッジ点群がまばらに存在しており、直線らしさが小さいためである。
図9は図7の検出結果を撮像画像に参考のため重ねて表示した図である。この図から本発明の効果が格別なものであることがわかる。
(装置):
本発明の装置の構成(図示省略)は、少なくとも、
上記した必要な手順および処理を行うCPU(中央演算装置)およびメモリ等からなる処理装置と、
道路の白線情報等を取得するためのビデオカメラ等の撮像装置と、
処理結果を表示するモニター等の画像表示装置を備える。
撮像装置および画像表示装置は処理装置により制御される。
処理装置により処理した結果は画像表示装置にリアルタイムで表示することができる。
以上は、車道の白線を対象とする実施例についての説明であったが、平面上に設けられた直線に沿って移動する移動体の制御に使用することができる。例えば、工場内での無人のロボット車両の運転制御等に使用できる。
カメラと道路面との位置・姿勢の関係を示す説明図である。 図1の座標系を示す説明図である。 画像面上における直線のパラメータ(ρ、θ)を示す図である。 直線とエッジ点との距離の説明図である。 幾つかのフレームにおけるエッジの検出結果を示す図である。 GWHTによる直線の検出結果を原画像上に描いたものである。 提案手法による車線境界の検出結果である。 提案手法による投票結果である。 図7の検出結果を撮像画像に参考のため重ねて表示した図である。
符号の説明


Claims (6)

  1. 路面に対し一定角度になるように車両に搭載した撮像装置と、前記撮像装置の撮像画像を取り込んで所定の処理を行い画像上の直線を検出する処理を行う処理装置とを備えた車線検出装置において、
    前記撮像装置の撮像画像上においてエッジが検出された点を車両の進行方向に直交する道路上の軸の座標に変換し、前記道路上の軸を等間隔で区切った領域のうち対応する領域に投票を行い、すべてのエッジ点において前述した処理を行ったあとに注目する前記道路上の領域が近傍領域内で最大のときその領域に車線境界が存在するとみなす処理を行うことを特徴とする車線検出方法。
  2. 前記車線検出装置において、前記道路上の軸を等間隔で区切った各領域の代表点を撮像画像上の直線に変換し、投票の重みを、前記直線へのエッジ点からの距離に応じた重みと、エッジ点における輝度値勾配の方向と前記直線の方向とのずれに応じた重みとの積とすることを特徴とする請求項1記載の車線検出方法。
  3. 前記車線検出装置に画像表示装置を組み込み、前記注目している領域の投票値がその近傍領域内で最大のときその領域を車線境界とみなす処理を行った結果を前記撮像画像上に白線のエッジとして表示した画像を前記画像表示装置に表示するようにしたことを特徴とする請求項1記載の車線検出方法。
  4. 路面に対し一定角度になるように車両に搭載した撮像装置と、前記撮像装置の撮像画像を取り込んで所定の処理を行い画像上の直線を検出する処理を行う処理装置とを備えた車線検出装置であって、前記処理装置により、
    前記撮像装置の撮像画像上においてエッジが検出された点を車両の進行方向に直交する道路上の軸の座標に変換し、前記道路上の軸を等間隔で区切った領域のうち対応する領域に投票を行い、すべてのエッジ点において前述した処理を行ったあとに注目する前記道路上の領域が近傍領域内で最大のときその領域に車線境界が存在するとみなす処理を行うことを特徴とする車線検出装置。
  5. 前記車線検出装置であって、前記処理装置により、前記道路上の軸を等間隔で区切った各領域の代表点を撮像画像上の直線に変換し、投票の重みを、前記直線へのエッジ点からの距離に応じた重みと、エッジ点における輝度値勾配の方向と前記直線の方向とのずれに応じた重みとの積とすることを特徴とする請求項4記載の車線検出装置。
  6. 前記車線検出装置であって、前記処理装置により、前記車線検出装置に画像表示装置を組み込み、前記注目している領域の投票値がその近傍領域内で最大のときその領域を車線境界とみなす処理を行った結果を前記撮像画像上に白線のエッジとして表示した画像を前記画像表示装置に表示するようにしたことを特徴とする請求項4記載の車線検出装置。
JP2006038670A 2006-02-15 2006-02-15 車線検出方法および装置 Pending JP2007219767A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006038670A JP2007219767A (ja) 2006-02-15 2006-02-15 車線検出方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006038670A JP2007219767A (ja) 2006-02-15 2006-02-15 車線検出方法および装置

Publications (1)

Publication Number Publication Date
JP2007219767A true JP2007219767A (ja) 2007-08-30

Family

ID=38497013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006038670A Pending JP2007219767A (ja) 2006-02-15 2006-02-15 車線検出方法および装置

Country Status (1)

Country Link
JP (1) JP2007219767A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110253579A (zh) * 2019-06-24 2019-09-20 合肥工业大学 基于圆弧特征提取的机器人定位方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03142576A (ja) * 1989-10-27 1991-06-18 Hamamatsu Photonics Kk 画像処理方法
JPH05141920A (ja) * 1991-11-20 1993-06-08 Yamatake Honeywell Co Ltd 部品状態検出方法
JPH08123965A (ja) * 1994-10-25 1996-05-17 Graphtec Corp 直線検出方法及び直線検出装置
JPH0973545A (ja) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd 白線認識装置
JPH09231379A (ja) * 1996-02-28 1997-09-05 Hitachi Ltd 画像処理による走行車線認識装置
JP2005251106A (ja) * 2004-03-08 2005-09-15 Mitsubishi Electric Corp 車線認識装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03142576A (ja) * 1989-10-27 1991-06-18 Hamamatsu Photonics Kk 画像処理方法
JPH05141920A (ja) * 1991-11-20 1993-06-08 Yamatake Honeywell Co Ltd 部品状態検出方法
JPH08123965A (ja) * 1994-10-25 1996-05-17 Graphtec Corp 直線検出方法及び直線検出装置
JPH0973545A (ja) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd 白線認識装置
JPH09231379A (ja) * 1996-02-28 1997-09-05 Hitachi Ltd 画像処理による走行車線認識装置
JP2005251106A (ja) * 2004-03-08 2005-09-15 Mitsubishi Electric Corp 車線認識装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110253579A (zh) * 2019-06-24 2019-09-20 合肥工业大学 基于圆弧特征提取的机器人定位方法、装置、设备及介质
CN110253579B (zh) * 2019-06-24 2021-11-19 合肥工业大学 基于圆弧特征提取的机器人定位方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
EP2924653B1 (en) Image processing apparatus and image processing method
Yan et al. A method of lane edge detection based on Canny algorithm
JP5267596B2 (ja) 移動体検出装置
US10867403B2 (en) Vehicle external recognition apparatus
US20180082132A1 (en) Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
US9483711B2 (en) Object detection system
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
US20220207276A1 (en) Method of detecting curved lane through path estimation using monocular vision camera
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
CN111738033B (zh) 基于平面分割的车辆行驶信息确定方法及装置、车载终端
Ponsa et al. On-board image-based vehicle detection and tracking
JP2014154898A (ja) 物体検知装置
Tanaka et al. Vehicle detection based on perspective transformation using rear-view camera
JP2017207874A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN114972427A (zh) 一种基于单目视觉的目标跟踪方法、终端设备及存储介质
JP4256992B2 (ja) 障害物検出装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
KR20130015984A (ko) 차선 인식 장치 및 그 방법
US20170300765A1 (en) Freespace Detection Apparatus and Freespace Detection Method
JP2015064735A (ja) 自車位置推定装置及び自車位置推定方法
JP4847779B2 (ja) 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP3319383B2 (ja) 走行路認識装置
JP2007199932A (ja) 画像処理装置及びその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308