JP3632313B2 - Lane detection method and apparatus on road surface - Google Patents
Lane detection method and apparatus on road surface Download PDFInfo
- Publication number
- JP3632313B2 JP3632313B2 JP21942796A JP21942796A JP3632313B2 JP 3632313 B2 JP3632313 B2 JP 3632313B2 JP 21942796 A JP21942796 A JP 21942796A JP 21942796 A JP21942796 A JP 21942796A JP 3632313 B2 JP3632313 B2 JP 3632313B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- sides
- pair
- boundary lines
- specifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title description 34
- 230000015654 memory Effects 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 30
- 238000003708 edge detection Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 6
- 239000000872 buffer Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003874 inverse correlation nuclear magnetic resonance spectroscopy Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、路面上のレーン検出方法及び装置に関し、特に自動車の前方の、運転者の視界と一致する可視領域の画像情報に基づき、両側の境界線を特定することによって路面上のレーンを検出し得るレーン検出方法及び装置に係る。
【0002】
【従来の技術】
一般に、道路の境界線を幾何学的に特定する場合には、道路の両側(左右)の白線の位置を対応づけることが行なわれる。ここで、「対応づける」とは、左右の白線の接線を求めるとき、道路平面内で曲率中心に向かう法線を共有する位置を定めることをいう。そして、法線と接線との交点を「対応点」といい、左右の対応点間を結ぶ線分を「道路セグメント」という。而して、道路の複数の位置で道路セグメントを求め、それらを並設すれば道路平面を表すことになり、各道路セグメントはそのセグメント位置での道路の方向を示している。
【0003】
上記の道路境界線の特定方法に関しては、慶応義塾大学、小沢慎治氏の論文「道路像解析における対応点の決定法」(電子情報通信学会論文誌D−IIVol.J72−D−II No.5pp.827−830 1989年5月発行)において、図13に示すように、無限遠点の位置を利用してレーンの接線ベクトルTを求め、左右の接線ベクトルに対する法線である単位セグメントベクトルSを得て、S・T=0となる接線ベクトルの組み合わせを探すという方法が提案されている。
【0004】
また、メリーランド大学、ディメンソン(D. DeMenthon)氏の論文「A ZERO−BANK ALGORITHM FOR INVERSE PERSPECTIVE OF ROAD FROM A SINGLE IMAGE 」(Proc.IEEE Interl. Conf. on Robotics and Automation, pp.1444−1449, 1987 年3月発行)には次の方法が提案されている。即ち、道路境界線の左右の接線が平行であれば、一方の接線からの法線は他方の接線においても法線となり、道路セグメントの条件を満足する。例えば図14に示すように、左右の接線N1−N2,M1−M2が平行でないときには、この交点Rは接線N1−N2に対する道路セグメントの端点として期待する位置から外れてしまうことになる。従って、道路が曲がっている場合、左右の接線からの法線を使って曲率中心やレーン幅を計算できると説明されている。
【0005】
一方、自動車の前方の可視領域の画像情報を処理し種々の用途に供する画像処理装置が提案されており、特開平6−215137号の公報には、画像中の特徴点の情報を高速で検出しうる画像処理装置を提供することを課題とし、走査テーブルメモリ手段上に書き込まれる走査線情報(走査開始座標、走査終了座標)の組合せによって走査領域が決定されるように構成されている。具体的には、進行方向に向かう白線(車線)の輪郭を検出する場合、白線が存在する領域は、通常はある狭い範囲内に限定されるので、その狭い範囲の画像データだけを検出対象として走査すべく、走査領域(ウィンドウという)を、走査テーブルメモリ手段上に書き込まれる走査線情報(走査開始座標、走査終了座標)の組合せによって決定することとしたものである。
【0006】
【発明が解決しようとする課題】
前述の道路の境界線の特定方法に関し、前者の論文に記載の方法においては、S・T=0が成立するまで演算を繰り返す必要があるので応答性に問題が残る。また、後者の論文に記載の境界線の特定方法においては、正しい道路セグメントを検出するための接線の求め方については言及されていない。
【0007】
このような道路セグメントを求めるには、最終的には同じ道のり距離の範囲で、左右の白線のエッジを切り出し、その区間での道路境界線の接線を求める必要がある。例えば、直線道路では、同一距離範囲内の左右の白線の組、曲線道路では、同じ道のり距離の範囲内の白線の組、即ち、同一の曲率中心に対する同一の角度だけ隔たった同心円弧の区間の白線の組を切り出すことが必要である。しかし、左右の白線のエッジが同じ道のり距離区間にない場合には、左右の接線が平行となる白線のエッジの区間の組み合わせを探すことになるが、必然的に計算の繰り返しが多くなる。
【0008】
尚、前述の論文には、道路の境界線、道路セグメント等と表現されているが、実際には、路面上に一定の距離を隔てて平行な二本の白色等の明色の線(代表して、白線という)が施されて両側(左右)の境界線とされ、これらの境界線の間の領域が、自動車等が走行するためのレーン(以下、レーンという)となっている。従って、二本の白線を特定することによって路面上のレーンを検出することができる。このような点から本願においては、「道路セグメント」に代えて「レーンのセグメント」もしくは単に「セグメント」を用い、「道路の境界線」に代えて「レーンの境界線」を用いることとする。従って、道路の両端に白線が施され、これらを特定することによって道路を検出する場合には、レーン即ち道路を意味することとなる。
【0009】
そこで、本発明は、繰り返し演算を行なうことなくセグメントを設定し、路面上のレーンを迅速且つ適切に検出し得るレーン検出方法を提供することを課題とする。
【0010】
また、本発明は、路面上のレーンを迅速且つ適切に検出し得るレーン検出装置を提供することを別の課題とする。
【0011】
【課題を解決するための手段】
上記の課題を解決するため、本発明の路面上のレーン検出方法は、請求項1に記載のように、検出対象とする路面上のレーンの両側の境界線を含む画像情報の濃淡に基づき、前記両側の境界線を表すエッジを検出して順次エッジメモリに格納し、前記両側の境界線を表す連続した二列のエッジ群を形成し;少くとも前記二列のエッジ群に基づき3次元平面上で前記両側の境界線を特定し;前記両側の境界線を特定した前回の画像に基づき前記両側の境界線に対する曲率中心を特定し;前記エッジメモリに新たに格納し前記両側の境界線を表す連続した二列のエッジ群を形成するエッジ群の中から、前記曲率中心を中心とする同心円弧に沿って夫々所定距離分の一対のエッジ列を抽出し;抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定し;抽出した一対のエッジ列を構成するエッジ群の重心を特定し;該重心を通る前記一対の接線に対する法線を特定し;該法線と前記一対の接線の交点を特定し、該一対の交点間の線分を前記レーンのセグメントとして設定し;該セグメントに基づき前記両側の境界線を特定した画像を更新することとしたものである。
【0012】
また、本発明の路面上のレーン検出装置は、請求項2に記載し図2に示したように、検出対象とする路面上のレーンの両側の境界線を含む画像情報を入力し該画像情報の濃淡に基づきエッジを検出し、前記両側の境界線を表すエッジを順次出力するエッジ検出手段EDと、エッジ検出手段EDが出力した前記両側の境界線を表すエッジを順次格納し、前記両側の境界線を表す連続した二列のエッジ群を形成するエッジメモリ手段EMと、少くとも前記二列のエッジ群に基づき3次元平面上で前記両側の境界線を特定する画像処理手段DPと、前記両側の境界線を特定した前回の画像に基づき前記両側の境界線に対する曲率中心を特定する曲率中心特定手段RCと、エッジメモリ手段EMが新たに格納し前記両側の境界線を表す連続した二列のエッジ群を形成するエッジ群の中から、前記曲率中心を中心とする同心円弧に沿って夫々所定距離分の一対のエッジ列を抽出するエッジ列抽出手段ESと、エッジ列抽出手段ESが抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定する接線特定手段TLと、エッジ列抽出手段ESが抽出した一対のエッジ列を構成するエッジ群の重心を特定する重心特定手段GCと、前記重心を通る前記一対の接線に対する法線を特定する法線特定手段NLと、前記法線と前記一対の接線の交点を特定し、該一対の交点間の線分を前記レーンのセグメントとして設定し、該セグメントを画像処理手段DPに出力するセグメント設定手段SDとを備え、画像処理手段DPが、前記セグメントに基づき前記両側の境界線を特定した画像を更新するように構成したものである。このレーン検出装置においては、前記検出対象を含む可視領域を撮像する撮像手段CSを備えたものとし、撮像手段CSが撮像した画像情報をエッジ検出手段EDに入力し、前記エッジを検出するように構成するとよい。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面を参照し乍ら説明する。図1は、本発明の一実施形態に係るレーン検出方法の原理を説明するもので、先ず、(1)前回の画面情報に基づき検出対象の路面のレーン形状が特定できているものとし、この曲率中心Cに対して新しい画面での白線に対するエッジ群から、同心円弧に沿ってエッジ列を抽出する。次に、(2)両側(左右)の各エッジ列に対する接線方程式を求める。このとき、左右の白線は平行であるという拘束条件を設け、最小自乗法により2本の接線方程式を求めると共に、エッジ群の重心Gを求める。これらに基づき、(3)エッジ群の重心Gを通り左右の接線に直交する直線即ち法線の方程式を求め、法線と左右の接線との交点を求める。そして、(4)左右の交点間を結ぶ線分をレーンのセグメントSiとして設定し、(5)セグメントSiに基づき、上記のレーン形状を特定した画像を更新する。而して、繰り返し演算することなくセグメントを求めることができる。
【0014】
更に、複数の区間で求めたセグメントに基づきレーン形状を幾何学的に特定することができる。即ち、図示は省略するが、複数のセグメントS1乃至Snを、手前から遠方に向かって順次連続して求めることにより、レーンの線形判別、任意区間の平均カーブ曲率半径、任意距離前方の方位、自動車のヨー角、横変位、レーン幅等を演算することができる。運転者の視点位置からセグメントS1乃至Snまでの道のり距離をD1乃至Dnとすると、セグメントSi,Sjの延長線上での交点は、道のり距離Di,Djの区間での曲率中心Cであり、曲率中心CとセグメントSi,Sjまでの距離は曲率半径Ri,Rjで表すことができる。このようにして、セグメントの任意の区間での曲率半径を演算することができる。そして、求められたセグメントの右側端点もしくは左側端点、又は中点の集合に対して曲線を当てはめれば、境界線又は中心線を曲線の方程式として表すことができるので、任意の道のり距離でのレーンの境界線又は中心線の方位を求めることができる。更に、上述した曲線を視点位置まで延長し、この位置でのセグメントを求めれば、視点位置でのヨー角、横変位、レーン幅を演算することもできる。
【0015】
次に、本発明のレーン検出装置の実施形態について図面を参照しながら説明する。本実施形態は、自動車の運転者の視界と一致する前方の可視領域内に存在する検出対象を、確実に検出し画像表示し得るように構成されている。図3はレーン検出装置の全体構成を示すもので、例えば固体撮像素子のCCDを用いたCCDカメラ1が、例えば自動車(図示せず)内の運転者の視点近傍に配置され前方の可視領域が撮像される。このCCDカメラ1で撮像されるアナログ信号の画像信号はエッジ検出部10のADコンバータ11に供給され、濃度に応じたデジタル信号に変換される。
【0016】
エッジ検出部10において、ADコンバータ11の出力信号は二本のラインバッファ12を介して検出回路13内のSobel のエッジ抽出オペレータ14に供給され、x方向及びy方向のエッジが検出されるように構成されている。また、CCDカメラ1の出力信号が同期信号としてx−yアドレス変換部15に供給される。このとき、エッジのx座標として10ビットが割り当てられ、y座標には9ビットが割り当てられ、最大値用に8ビットが割り当てられ、更に、正負の符号用に1ビットが割り当てられる。更に、検出回路13は後述するウィンドウゲート16を有し、検出対象判定部20に接続されている。尚、このエッジ検出部10は、ゲートアレーで構成することができる。
【0017】
検出対象判定部20はマイクロコンピュータで構成され、CPU21、ROM22、RAM23、出力用のシリアルポート24、割込カウンタ25、タイマ26等を有し、これらがアドレスバス及びデータ/コントロールバスを介して接続されている。尚、27は電源部である。RAM23は図4に示すようにウィンドウメモリ23wとエッジメモリ23eを有し、前者のウィンドウデータがウィンドウゲート16に供給されると共に、エッジ抽出オペレータ14の抽出データがウィンドウゲート16に供給され、ウィンドウゲート16内でこれらの論理積(AND)が演算され、その演算結果がエッジメモリ23eに供給されて格納される。
【0018】
図9は、ウィンドウメモリ23w内のテーブルメモリの一例を示すもので、図9の右側に示す画面の横又は縦(図9の例では横のx軸方向)の走査線480本に対応する0番地から479番地のアドレスが設定される。このアドレス毎に上記の走査線に応じて少くとも一つの基準点のx座標又はy座標(図9の例ではx座標のX0乃至X479)を設定すると共に、各基準点に対し所定の幅(図9の例ではW0乃至W479)が設定されて格納される。尚、図9の画面の左上角部の座標は(0,0)であり、右下角部の座標は(639,479)である。また、テーブルメモリが16ビットである場合には、ウィンドウのx座標設定用に10ビットが用いられ、幅の設定用に6ビットが用いられるように構成されるが、32ビットのメモリであれば、幅も略画面一杯に設定することができる。
【0019】
図4はエッジ検出に係る機能ブロック図で、同期信号Sが夫々水平カウンタ17及び垂直カウンタ18を介して、2本のラインバッファ12、3×3マトリクスレジスタ19、Sobel のエッジ抽出オペレータ14ex,14ey、ピーク検出部14px, 14pyに供給される。而して、2本のラインバッファ12を介して走査線3本の画像データが3×3マトリクスレジスタ19に供給され、エッジ抽出オペレータ14ex,14eyにて、2次元画面におけるx方向及びy方向のエッジが検出され、更にピーク検出部14px, 14pyにて求められた夫々のピーク値がエッジメモリ23eに供給される。尚、y方向のピーク値を求めるためピーク値検出用のメモリ23pが設けられている。一方、ウィンドウゲート16にてピーク判定されたときのピーク値検出用メモリ23pの内容とウィンドウメモリ23wのメモリ値との論理積(AND)が求められ、ウィンドウの位置及び幅がエッジメモリ23eに供給される。このエッジメモリ23eは、x方向及びy方向の濃度メモリ23gx,23gyとx方向及びy方向の座標メモリ23px,23pyを有し、夫々にエッジのピーク値が格納される。
【0020】
上記の構成になる本実施形態のレーン検出装置においては、図5乃至図8のフローチャートに従って画像処理が行なわれる。先ず図5のステップ101において、CCDカメラ1の全ての出力画像信号がADコンバータ11及びラインバッファ12を介して検出回路13に供給され、画像情報が取り込まれる。次に、ステップ102にてエッジが検出される。本実施形態ではこのエッジに基づき図10に示すように特徴点が設定され、この特徴点のx座標及びy座標が特定される。また、ステップ103において今回の画像処理時の検出対象ウィンドウが設定される。尚、この処理については図6を参照して後述する。
【0021】
図10は上記の特徴点の抽出状況を示すもので、先ず画像濃度を表す信号が微分され、微分値(ピーク値)が所定のしきい値によって二値化され所定幅の特徴領域Z1,Z2が形成される。更に、細線化処理が行なわれ、特徴領域Z1,Z2の中央部分の位置が特徴点P1,P2とされ、輪郭を表す基準とされる。このように、本実施形態では輪郭を表す指標として一般的なエッジのほかに特徴点が設定されるが、エッジをそのまま用いることとしてもよい。
【0022】
続いて、ステップ104において、ステップ102にてエッジに基づいて設定された特徴点と、ステップ103で設定された検出対象ウィンドウの論理積(AND)がとられ、このウィンドウ内の特徴点が抽出される。そして、ステップ105に進むが、ステップ105以降は検出対象が曲線又は直線状の場合に特有の処理であり、具体的には本実施形態が対象とする自動車走行用のレーンの白線の特定に好適な処理である。
【0023】
ステップ105においては、図11及び図12に示すように、ステップ104で抽出された画面上の特徴点が路面上に存在するように、特徴点の位置が3次元平面上の位置に変換される。尚、前述の2次元平面の座標軸x,yに対し、3次元平面の座標軸をX,Y,Zで表す。上記のように3次元平面上の位置に変換された特徴点によって、ステップ106にてレーンのセグメントが特定されるが、これについては図7及び図8を参照して後述する。続いて、ステップ107にてセグメントの配列に対し数学モデルが当てはめられ、更にステップ108に進み、合致する数学モデルによってレーン形状を表すパラメータ(曲率半径、レーンの幅等)が計測される。更に、ステップ109に進み、レーン形状を表すパラメータが2次元平面座標に換算され、次回の検出対象ウィンドウの設定に供される。
【0024】
次に、図6を参照して、ステップ103において実行される検出対象ウィンドウの設定について説明する。ステップ201において検出対象ウィンドウ(以下、単にウィンドウという)の縦軸(y軸)の上端及び下端を設定する値が、夫々所定値yb,ytに設定され(本実施形態では、yb≧0,yt≦479)、縦軸(y軸)上の位置yの値が画面の最下端(y=479)に設定される。
【0025】
続いて、ステップ203においてウィンドウの左側設定用のメモリ(y)及び右側設定用のメモリ(y)が夫々キャンセル(無効)され、ステップ204においてy軸上の位置yの値がディクリメント(−1)された後、ステップ205にて所定値ybと比較され、所定値yb以下となるまでステップ203及び204が繰り返される。y軸上の位置yの値が所定値yb以下となると、ステップ206に進み、所定値ybとされる。このようにして画面の下端が設定され、画面の下方の位置ybからステップ207以降の処理が開始する。
【0026】
ステップ207においては、ウィンドウの幅がw(y) に設定される。ウィンドウの幅w(y) は、一定(w(y) =Ky,但しKyは定数)としてもよいし、3次元平面上でウィンドウの幅が一定になるように設定してもよい。あるいは、遠方でウィンドウの幅が拡大するように設定してもよい。そして、ステップ208にてウィンドウの左側設定用のメモリ(y)の始点が、fl(y) −w(y)/2に設定される。ここで、fl(y) は2次元画面上での左側の白線形状の中心線を表し、前回の値である。
【0027】
また、ステップ209にてウィンドウの左側設定用のメモリ(y)の幅が、w(y) に設定される。同様に、ステップ210にてウィンドウの右側設定用のメモリ(y)の始点が、fr(y) −w(y)/2に設定され、ステップ211にてウィンドウの右側設定用のメモリ(y)の幅が、w(y) に設定される。尚、fr(y) は2次元画面上での右側の白線形状の中心線を表し、前回の値である。このように、本実施形態ではウィンドウの形状は基準点(始点)と幅によって規定されるが、始点と終点を設定することとしてもよい。
【0028】
次に、ステップ212においてy軸上の位置yの値がディクリメント(−1)された後、ステップ213にて画面の上端を表す所定値ytと比較され、所定値ytを下回るまでステップ207乃至212が繰り返される。y軸上の位置yの値が所定値ytを下回ると、ステップ214に進む。
【0029】
而して、画面に予め設定した上端を超えることになるので、ステップ214においてウィンドウの左側設定用のメモリ(y)及び右側設定用のメモリ(y)がキャンセルされ、ステップ215においてy軸上の位置yの値がディクリメント(−1)された後、ステップ216にて0と比較され、y軸上の位置yの値が0を下回るまでステップ214及び215が繰り返され、y軸上の位置yの値が0を下回ると図5のルーチンに戻る。
【0030】
図5のステップ106におけるレーンのセグメントの設定は、図7及び図8のフローチャートに従って実行される。先ず、ステップ301において前回の画像に表示された白線の線形形状が判定され、カーブしていると判定されるとステップ302以降に進み、直線と判定されるとステップ316以降(図8)に進む。白線がカーブしていると判定されると、ステップ302においてセグメントを表す番号iがクリアされた後、カーブ内側の白線に対し、ステップ303にてセグメント番号iの領域の始点がIP1とされ、ステップ304にてセグメント番号iの領域の終点がIP2とされる。
【0031】
次に、ステップ305において、図1に示すように前回の画像に表示された白線を円弧としたときの中心Cと始点IP1を通る直線がL1とされ、ステップ306において中心Cと終点IP2を通る直線がL2とされる。続いて、ステップ307,308に進み、直線L1とカーブ外側の白線との交点がOP1とされると共に、直線L2とカーブ外側の白線との交点がOP2とされる。
【0032】
そして、ステップ309において交点IP1と交点IP2との間の白線を構成するエッジ群の各座標が演算用行列に供されると共に、ステップ310において交点OP1と交点OP2との間の白線を構成するエッジ群の各座標が演算用行列に供される。これらの演算結果に基づき、ステップ311において一対のエッジ列を構成するエッジ群に対し、最小二乗法により平行線が当てはめられ、一対の接線が特定される。また、ステップ312において一対のエッジ列を構成するエッジ群の重心Gが求められ、この重心Gを通る平行線モデルの法線がステップ313にてSiとされる。即ち、平行線モデル間の線分がレーンのセグメントSiとされる。以上の処理が行なわれた後、セグメント番号iがインクリメント(+1)され、nとなるまでステップ303乃至ステップ314の処理が繰り返される。
【0033】
一方、ステップ301において前回の画像に表示された白線の線形形状が直線と判定されると、図8のステップ316においてセグメントを表す番号iがクリアされた後、例えば右側の白線に対し、ステップ317にてセグメント番号iの領域の始点がRP1とされ、ステップ318にてセグメント番号iの領域の終点がRP2とされる。続いて、ステップ319,320に進み、左側の白線に対しセグメント番号iの領域の始点がLP1とされ、セグメント番号iの領域の終点がLP2とされる。
【0034】
そして、ステップ321において始点RP1と終点RP2との間の白線を構成するエッジ群の各座標が最小二乗法演算用行列に供されると共に、ステップ322において始点LP1と終点LP2との間の白線を構成するエッジ群の各座標が最小二乗法演算用行列に供される。これらの演算結果に基づき、ステップ323において一対のエッジ列を構成するエッジ群に対し、最小二乗法により平行線が当てはめられ、一対の接線が特定される。また、ステップ324において一対のエッジ列を構成するエッジ群の重心Gが求められ、この重心Gを通る平行線モデルの法線がステップ325にてSiとされる。而して、この法線Siの平行線モデル間の線分がレーンのセグメントとされる。以上の処理が行なわれた後、セグメント番号iがインクリメント(+1)され、nとなるまでステップ317乃至ステップ326の処理が繰り返される。
【0035】
以上のように、本実施形態においては繰り返し演算を行なうことなくレーンのセグメントが設定されるので、安価に構成することができる。また、両側の白線の接線が平行線であることを拘束条件としているので、従前の白線毎に接線を求める方法に比し、路面や白線の汚れ等のノイズに影響され難く、適切にレーンのセグメントを設定することができる。更に、「レーン幅が一定」という拘束条件を加えれば、ノイズの影響を一層受け難くくなる。
【0036】
【発明の効果】
本発明は前述のように構成されているので以下に記載の効果を奏する。即ち、請求項1に係る路面上のレーン検出方法は、抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定し、これら一対のエッジ列を構成するエッジ群の重心を特定し、この重心を通る一対の接線に対する法線を特定し、この法線と一対の接線の交点を特定し、これら一対の交点間の線分をレーンのセグメントとして設定するととしているので、ノイズに影響されにくく、迅速且つ適切にレーン検出を行なうことができる。
【0037】
また、請求項2に記載の路面上のレーン検出装置は、エッジ列抽出手段が抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定する接線特定手段と、エッジ列抽出手段が抽出した一対のエッジ列を構成するエッジ群の重心を特定する重心特定手段と、前記重心を通る前記一対の接線に対する法線を特定する法線特定手段を具備し、セグメント設定手段により、前記法線と前記一対の接線の交点を特定し、該一対の交点間の線分をレーンのセグメントとして設定するように構成されているので、ノイズに影響されにくく、迅速且つ適切にレーンを検出することができる。
【図面の簡単な説明】
【図1】本発明の路面上のレーン検出方法におけるセグメントの設定方法を示す説明図である。
【図2】本発明の路面上のレーン検出装置の構成の概要を示すブロック図である。
【図3】本発明一実施形態の全体構成を示すブロック図である。
【図4】本発明の一実施形態におけるエッジ検出部の構成を示すブロック図である。
【図5】本発明の一実施形態における画像処理を示すフローチャートである。
【図6】本発明の一実施形態における検出対象ウィンドウ設定の処理を示すフローチャートである。
【図7】本発明の一実施形態におけるセグメント設定の処理を示すフローチャートである。
【図8】本発明の一実施形態におけるセグメント設定の処理を示すフローチャートである。
【図9】本発明の一実施形態におけるウィンドウ設定メモリを示す構成図である。
【図10】本発明の一実施形態における特徴点の検出状況を示すグラフである。
【図11】本発明の一実施形態において特徴点の位置を3次元平面上の位置に変換する状況を示す図である。
【図12】本発明の一実施形態において特徴点の位置を3次元平面上の位置に変換する状況を示す図である。
【図13】従来の道路セグメントの設定方法の一例を説明する図である。
【図14】従来の道路セグメントの設定方法の他の例を説明する図である。
【符号の説明】
1 CCDカメラ
10 エッジ検出部
11 ADコンバータ
12 ラインバッファ
13 検出回路
14 エッジ抽出オペレータ
15 x−yアドレス変換部
16 ウィンドウゲート
20 検出対象判定部
23w ウィンドウメモリ
23e エッジメモリ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method and apparatus for detecting a lane on a road surface, and in particular, detects a lane on a road surface by specifying boundary lines on both sides based on image information in a visible region that coincides with a driver's field of view in front of a car. The present invention relates to a method and apparatus for detecting lanes.
[0002]
[Prior art]
In general, when the road boundary line is specified geometrically, the positions of the white lines on both sides (left and right) of the road are associated with each other. Here, “associating” means that when obtaining the tangent line of the left and right white lines, the position where the normal line toward the center of curvature is shared in the road plane is determined. The intersection of the normal and the tangent is called “corresponding point”, and the line segment connecting the corresponding points on the left and right is called “road segment”. Thus, when road segments are obtained at a plurality of positions on the road and arranged in parallel, a road plane is represented, and each road segment indicates the direction of the road at the segment position.
[0003]
Regarding the method for identifying the above road boundary line, a paper written by Keio University and Shinji Ozawa “Determining Corresponding Points in Road Image Analysis” (The Institute of Electronics, Information and Communication Engineers Journal D-II Vol. J72-D-II No. 5pp. 827-830 issued in May 1989), the tangent vector T of the lane is obtained using the position of the infinity point, and the unit segment vector S that is the normal to the left and right tangent vectors is obtained as shown in FIG. Thus, a method of searching for a combination of tangent vectors where S · T = 0 has been proposed.
[0004]
The University of Maryland, D. DeMenthon's paper “A ZERO-BANK ALGORITHM FOR INVERSE PERSPECTIVE OF ROAD FROM A SINGLE IMAGE”, Proc. IEEE Inters. The following method is proposed in March 1987). That is, if the left and right tangent lines of the road boundary line are parallel, the normal line from one tangent line is also the normal line in the other tangent line, and satisfies the road segment condition. For example, as shown in FIG. 14, when the left and right tangents N1-N2 and M1-M2 are not parallel, the intersection R deviates from the expected position as the end point of the road segment with respect to the tangent N1-N2. Therefore, it is described that when the road is curved, the center of curvature and the lane width can be calculated using the normal from the left and right tangents.
[0005]
On the other hand, an image processing apparatus that processes image information in the visible region in front of an automobile and uses it for various purposes has been proposed. Japanese Laid-Open Patent Publication No. 6-215137 detects feature point information in an image at high speed. It is an object of the present invention to provide an image processing apparatus that can perform scanning, and a scanning area is determined by a combination of scanning line information (scanning start coordinates, scanning end coordinates) written on the scanning table memory means. Specifically, when detecting the outline of a white line (lane) heading in the direction of travel, the area where the white line exists is usually limited to a narrow range, so only the image data in that narrow range is detected. In order to scan, a scanning area (referred to as a window) is determined by a combination of scanning line information (scanning start coordinates, scanning end coordinates) written on the scanning table memory means.
[0006]
[Problems to be solved by the invention]
Regarding the method for specifying the road boundary line described above, in the method described in the former paper, it is necessary to repeat the operation until S · T = 0, so that there remains a problem in responsiveness. Further, in the boundary line specifying method described in the latter paper, there is no mention of how to obtain a tangent for detecting a correct road segment.
[0007]
In order to obtain such a road segment, it is ultimately necessary to cut out the edges of the left and right white lines within the same distance range and obtain the tangent of the road boundary line in that section. For example, on a straight road, a set of white lines on the left and right within the same distance range, on a curved road, a set of white lines within the same distance, that is, a section of concentric arcs separated by the same angle with respect to the same center of curvature. It is necessary to cut out a set of white lines. However, when the left and right white line edges are not in the same distance distance section, the combination of the white line edge sections in which the left and right tangent lines are parallel is searched, but the calculation is inevitably repeated.
[0008]
In the above-mentioned paper, road boundaries, road segments, etc. are expressed. However, in reality, two light-colored lines such as white that are parallel to each other with a certain distance on the road surface (representative) Then, white lines) are applied to form boundary lines on both sides (left and right), and a region between these boundary lines serves as a lane (hereinafter referred to as a lane) for driving an automobile or the like. Accordingly, the lane on the road surface can be detected by specifying the two white lines. From this point, in the present application, “lane segment” or simply “segment” is used instead of “road segment”, and “lane boundary” is used instead of “road boundary”. Accordingly, white lines are provided at both ends of the road, and when a road is detected by specifying these, it means a lane, that is, a road.
[0009]
Therefore, an object of the present invention is to provide a lane detection method that can set a segment without performing repetitive calculations and can quickly and appropriately detect a lane on a road surface.
[0010]
Another object of the present invention is to provide a lane detection device that can quickly and appropriately detect a lane on a road surface.
[0011]
[Means for Solving the Problems]
In order to solve the above problems, the road lane detection method of the present invention is based on the density of image information including the boundary lines on both sides of the lane on the road surface to be detected, as described in
[0012]
The road surface lane detection apparatus according to the present invention, as described in
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 explains the principle of a lane detection method according to an embodiment of the present invention. First, (1) it is assumed that the lane shape of the road surface to be detected can be specified based on the previous screen information. An edge row is extracted along a concentric arc from the edge group for the white line on the new screen with respect to the center of curvature C. Next, (2) a tangent equation for each edge row on both sides (left and right) is obtained. At this time, the constraint that the left and right white lines are parallel is provided, and two tangent equations are obtained by the least square method, and the center of gravity G of the edge group is obtained. Based on these, (3) an equation of a straight line that passes through the center of gravity G of the edge group and is orthogonal to the left and right tangents, that is, a normal line is obtained, and the intersection of the normal and the left and right tangents is obtained. (4) A line segment connecting the left and right intersections is set as a lane segment Si, and (5) the image specifying the lane shape is updated based on the segment Si. Thus, the segment can be obtained without repeated calculation.
[0014]
Furthermore, the lane shape can be specified geometrically based on the segments obtained in a plurality of sections. That is, although not shown in the figure, by sequentially obtaining a plurality of segments S1 to Sn from the front toward the far side, the linear determination of the lane, the average curve curvature radius of the arbitrary section, the azimuth ahead of the arbitrary distance, the automobile The yaw angle, lateral displacement, lane width, etc. can be calculated. If the road distances from the driver's viewpoint position to the segments S1 to Sn are D1 to Dn, the intersection point on the extension line of the segments Si and Sj is the center of curvature C in the section of the road distances Di and Dj, and the center of curvature. The distance between C and the segments Si and Sj can be expressed by the curvature radii Ri and Rj. In this way, the radius of curvature in an arbitrary section of the segment can be calculated. If a curve is applied to the right end point, left end point, or set of midpoints of the obtained segment, the boundary line or center line can be expressed as a curve equation. The boundary line or center line direction can be obtained. Further, if the above-described curve is extended to the viewpoint position and a segment at this position is obtained, the yaw angle, lateral displacement, and lane width at the viewpoint position can be calculated.
[0015]
Next, an embodiment of the lane detection device of the present invention will be described with reference to the drawings. The present embodiment is configured to reliably detect and display an image of a detection target existing in a forward visible region that matches the field of view of the driver of the automobile. FIG. 3 shows the overall configuration of the lane detection apparatus. For example, a
[0016]
In the
[0017]
The detection
[0018]
FIG. 9 shows an example of the table memory in the
[0019]
FIG. 4 is a functional block diagram relating to edge detection. The synchronization signal S is sent through the
[0020]
In the lane detection apparatus of the present embodiment configured as described above, image processing is performed according to the flowcharts of FIGS. First, in
[0021]
FIG. 10 shows the above-described feature point extraction situation. First, a signal representing the image density is differentiated, and the differential value (peak value) is binarized by a predetermined threshold value, and feature regions Z1, Z2 having a predetermined width. Is formed. Further, a thinning process is performed, and the positions of the central portions of the feature regions Z1 and Z2 are set as feature points P1 and P2, which are used as a reference representing the contour. As described above, in this embodiment, feature points are set in addition to general edges as indices representing contours, but the edges may be used as they are.
[0022]
Subsequently, in
[0023]
In step 105, as shown in FIGS. 11 and 12, the position of the feature point is converted to a position on the three-dimensional plane so that the feature point on the screen extracted in
[0024]
Next, setting of the detection target window executed in
[0025]
Subsequently, in step 203, the left-side setting memory (y) and right-side setting memory (y) of the window are canceled (invalid), and in
[0026]
In
[0027]
In step 209, the width of the memory (y) for setting the left side of the window is set to w (y). Similarly, in step 210, the starting point of the memory (y) for setting the right side of the window is set to fr (y) −w (y) / 2, and in
[0028]
Next, after the value of the position y on the y-axis is decremented (−1) in step 212, it is compared with a predetermined value yt representing the upper end of the screen in step 213, and steps 207 to 207 until it falls below the predetermined value yt. 212 is repeated. When the value of the position y on the y axis falls below the predetermined value yt, the process proceeds to step 214.
[0029]
Thus, since the upper end preset in the screen is exceeded, the left-side setting memory (y) and right-side setting memory (y) of the window are canceled in step 214, and in
[0030]
The setting of the lane segments in step 106 in FIG. 5 is executed according to the flowcharts in FIGS. 7 and 8. First, in
[0031]
Next, in
[0032]
In
[0033]
On the other hand, if it is determined in
[0034]
In step 321, the coordinates of the edge group constituting the white line between the start point RP1 and the end point RP2 are provided to the least squares matrix, and in
[0035]
As described above, in this embodiment, the lane segments are set without performing repetitive calculations, so that the configuration can be made inexpensively. In addition, since the constraint is that the tangent of the white line on both sides is a parallel line, it is less susceptible to noise such as dirt on the road surface and white line, compared to the previous method of obtaining the tangent for each white line. Segments can be set. Furthermore, if the constraint condition that “the lane width is constant” is added, it becomes less susceptible to noise.
[0036]
【The invention's effect】
Since the present invention is configured as described above, the following effects can be obtained. In other words, the road lane detection method according to
[0037]
The road surface lane detection device according to
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a segment setting method in a lane detection method on a road surface according to the present invention.
FIG. 2 is a block diagram showing an outline of a configuration of a lane detection device on a road surface according to the present invention.
FIG. 3 is a block diagram showing an overall configuration of an embodiment of the present invention.
FIG. 4 is a block diagram illustrating a configuration of an edge detection unit according to an embodiment of the present invention.
FIG. 5 is a flowchart showing image processing in an embodiment of the present invention.
FIG. 6 is a flowchart showing detection target window setting processing in an embodiment of the present invention.
FIG. 7 is a flowchart showing segment setting processing in an embodiment of the present invention.
FIG. 8 is a flowchart showing segment setting processing in an embodiment of the present invention.
FIG. 9 is a configuration diagram showing a window setting memory according to an embodiment of the present invention.
FIG. 10 is a graph illustrating a feature point detection state according to an embodiment of the present invention.
FIG. 11 is a diagram illustrating a situation in which the position of a feature point is converted to a position on a three-dimensional plane in an embodiment of the present invention.
FIG. 12 is a diagram illustrating a situation in which the position of a feature point is converted to a position on a three-dimensional plane in an embodiment of the present invention.
FIG. 13 is a diagram illustrating an example of a conventional road segment setting method.
FIG. 14 is a diagram for explaining another example of a conventional road segment setting method.
[Explanation of symbols]
DESCRIPTION OF
Claims (2)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21942796A JP3632313B2 (en) | 1996-07-31 | 1996-07-31 | Lane detection method and apparatus on road surface |
US08/903,729 US5991427A (en) | 1996-07-31 | 1997-07-31 | Method and apparatus for detecting a lane on a road |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21942796A JP3632313B2 (en) | 1996-07-31 | 1996-07-31 | Lane detection method and apparatus on road surface |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1047923A JPH1047923A (en) | 1998-02-20 |
JP3632313B2 true JP3632313B2 (en) | 2005-03-23 |
Family
ID=16735233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21942796A Expired - Fee Related JP3632313B2 (en) | 1996-07-31 | 1996-07-31 | Lane detection method and apparatus on road surface |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3632313B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3102478B2 (en) * | 1998-08-17 | 2000-10-23 | 日本電気株式会社 | Linear mark detection method and device |
KR20020053346A (en) | 2000-12-27 | 2002-07-05 | 이계안 | Method for detecting curve for road modeling system |
JP5707299B2 (en) * | 2011-10-28 | 2015-04-30 | 株式会社日立ハイテクノロジーズ | Semiconductor pattern measurement method, semiconductor pattern measurement device, semiconductor pattern measurement program, and storage medium storing semiconductor pattern measurement program |
US11100344B2 (en) * | 2019-11-21 | 2021-08-24 | GM Global Technology Operations LLC | Image-based three-dimensional lane detection |
-
1996
- 1996-07-31 JP JP21942796A patent/JP3632313B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1047923A (en) | 1998-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5991427A (en) | Method and apparatus for detecting a lane on a road | |
JP6550881B2 (en) | Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system | |
JP6519262B2 (en) | Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system | |
EP1394761B1 (en) | Obstacle detection device and method therefor | |
JP3904988B2 (en) | Image processing apparatus and method | |
JP3937414B2 (en) | Planar detection apparatus and detection method | |
US8406472B2 (en) | Method and system for processing image data | |
JP3993259B2 (en) | Image processing device | |
JP6743171B2 (en) | METHOD, COMPUTER DEVICE, DRIVER ASSISTING SYSTEM, AND MOTOR VEHICLE FOR DETECTION OF OBJECTS AROUND A ROAD OF A MOTOR VEHICLE | |
JP6340850B2 (en) | Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system | |
JPH10285582A (en) | Vehicle outside monitoring device | |
JP3562751B2 (en) | Forward vehicle detection method and device | |
JP2002352225A (en) | Obstacle detector and its method | |
JPH11213138A (en) | Out-of-vehicle monitoring device | |
JP3961584B2 (en) | Lane marking detector | |
JP6340849B2 (en) | Image processing apparatus, image processing method, image processing program, and mobile device control system | |
JP3632312B2 (en) | Lane detection method and apparatus on road surface | |
JP2002334330A (en) | Vehicle recognition device | |
EP3933684A1 (en) | Image based detection of parking space marked by dashed lines | |
JP3632313B2 (en) | Lane detection method and apparatus on road surface | |
JPH11345392A (en) | Device and method for detecting obstacle | |
JP2006053754A (en) | Plane detection apparatus and detection method | |
JPH07225126A (en) | On-road object recognizing device for vehicle | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JPH10143799A (en) | Preceding vehicle following device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041213 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080107 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090107 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100107 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100107 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110107 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110107 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120107 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130107 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130107 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |