JP3632313B2 - Lane detection method and apparatus on road surface - Google Patents

Lane detection method and apparatus on road surface Download PDF

Info

Publication number
JP3632313B2
JP3632313B2 JP21942796A JP21942796A JP3632313B2 JP 3632313 B2 JP3632313 B2 JP 3632313B2 JP 21942796 A JP21942796 A JP 21942796A JP 21942796 A JP21942796 A JP 21942796A JP 3632313 B2 JP3632313 B2 JP 3632313B2
Authority
JP
Japan
Prior art keywords
edge
sides
pair
boundary lines
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21942796A
Other languages
Japanese (ja)
Other versions
JPH1047923A (en
Inventor
俊明 柿並
祥勝 木村
亮 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP21942796A priority Critical patent/JP3632313B2/en
Priority to US08/903,729 priority patent/US5991427A/en
Publication of JPH1047923A publication Critical patent/JPH1047923A/en
Application granted granted Critical
Publication of JP3632313B2 publication Critical patent/JP3632313B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、路面上のレーン検出方法及び装置に関し、特に自動車の前方の、運転者の視界と一致する可視領域の画像情報に基づき、両側の境界線を特定することによって路面上のレーンを検出し得るレーン検出方法及び装置に係る。
【0002】
【従来の技術】
一般に、道路の境界線を幾何学的に特定する場合には、道路の両側(左右)の白線の位置を対応づけることが行なわれる。ここで、「対応づける」とは、左右の白線の接線を求めるとき、道路平面内で曲率中心に向かう法線を共有する位置を定めることをいう。そして、法線と接線との交点を「対応点」といい、左右の対応点間を結ぶ線分を「道路セグメント」という。而して、道路の複数の位置で道路セグメントを求め、それらを並設すれば道路平面を表すことになり、各道路セグメントはそのセグメント位置での道路の方向を示している。
【0003】
上記の道路境界線の特定方法に関しては、慶応義塾大学、小沢慎治氏の論文「道路像解析における対応点の決定法」(電子情報通信学会論文誌D−IIVol.J72−D−II No.5pp.827−830 1989年5月発行)において、図13に示すように、無限遠点の位置を利用してレーンの接線ベクトルTを求め、左右の接線ベクトルに対する法線である単位セグメントベクトルSを得て、S・T=0となる接線ベクトルの組み合わせを探すという方法が提案されている。
【0004】
また、メリーランド大学、ディメンソン(D. DeMenthon)氏の論文「A ZERO−BANK ALGORITHM FOR INVERSE PERSPECTIVE OF ROAD FROM A SINGLE IMAGE 」(Proc.IEEE Interl. Conf. on Robotics and Automation, pp.1444−1449, 1987 年3月発行)には次の方法が提案されている。即ち、道路境界線の左右の接線が平行であれば、一方の接線からの法線は他方の接線においても法線となり、道路セグメントの条件を満足する。例えば図14に示すように、左右の接線N1−N2,M1−M2が平行でないときには、この交点Rは接線N1−N2に対する道路セグメントの端点として期待する位置から外れてしまうことになる。従って、道路が曲がっている場合、左右の接線からの法線を使って曲率中心やレーン幅を計算できると説明されている。
【0005】
一方、自動車の前方の可視領域の画像情報を処理し種々の用途に供する画像処理装置が提案されており、特開平6−215137号の公報には、画像中の特徴点の情報を高速で検出しうる画像処理装置を提供することを課題とし、走査テーブルメモリ手段上に書き込まれる走査線情報(走査開始座標、走査終了座標)の組合せによって走査領域が決定されるように構成されている。具体的には、進行方向に向かう白線(車線)の輪郭を検出する場合、白線が存在する領域は、通常はある狭い範囲内に限定されるので、その狭い範囲の画像データだけを検出対象として走査すべく、走査領域(ウィンドウという)を、走査テーブルメモリ手段上に書き込まれる走査線情報(走査開始座標、走査終了座標)の組合せによって決定することとしたものである。
【0006】
【発明が解決しようとする課題】
前述の道路の境界線の特定方法に関し、前者の論文に記載の方法においては、S・T=0が成立するまで演算を繰り返す必要があるので応答性に問題が残る。また、後者の論文に記載の境界線の特定方法においては、正しい道路セグメントを検出するための接線の求め方については言及されていない。
【0007】
このような道路セグメントを求めるには、最終的には同じ道のり距離の範囲で、左右の白線のエッジを切り出し、その区間での道路境界線の接線を求める必要がある。例えば、直線道路では、同一距離範囲内の左右の白線の組、曲線道路では、同じ道のり距離の範囲内の白線の組、即ち、同一の曲率中心に対する同一の角度だけ隔たった同心円弧の区間の白線の組を切り出すことが必要である。しかし、左右の白線のエッジが同じ道のり距離区間にない場合には、左右の接線が平行となる白線のエッジの区間の組み合わせを探すことになるが、必然的に計算の繰り返しが多くなる。
【0008】
尚、前述の論文には、道路の境界線、道路セグメント等と表現されているが、実際には、路面上に一定の距離を隔てて平行な二本の白色等の明色の線(代表して、白線という)が施されて両側(左右)の境界線とされ、これらの境界線の間の領域が、自動車等が走行するためのレーン(以下、レーンという)となっている。従って、二本の白線を特定することによって路面上のレーンを検出することができる。このような点から本願においては、「道路セグメント」に代えて「レーンのセグメント」もしくは単に「セグメント」を用い、「道路の境界線」に代えて「レーンの境界線」を用いることとする。従って、道路の両端に白線が施され、これらを特定することによって道路を検出する場合には、レーン即ち道路を意味することとなる。
【0009】
そこで、本発明は、繰り返し演算を行なうことなくセグメントを設定し、路面上のレーンを迅速且つ適切に検出し得るレーン検出方法を提供することを課題とする。
【0010】
また、本発明は、路面上のレーンを迅速且つ適切に検出し得るレーン検出装置を提供することを別の課題とする。
【0011】
【課題を解決するための手段】
上記の課題を解決するため、本発明の路面上のレーン検出方法は、請求項1に記載のように、検出対象とする路面上のレーンの両側の境界線を含む画像情報の濃淡に基づき、前記両側の境界線を表すエッジを検出して順次エッジメモリに格納し、前記両側の境界線を表す連続した二列のエッジ群を形成し;少くとも前記二列のエッジ群に基づき3次元平面上で前記両側の境界線を特定し;前記両側の境界線を特定した前回の画像に基づき前記両側の境界線に対する曲率中心を特定し;前記エッジメモリに新たに格納し前記両側の境界線を表す連続した二列のエッジ群を形成するエッジ群の中から、前記曲率中心を中心とする同心円弧に沿って夫々所定距離分の一対のエッジ列を抽出し;抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定し;抽出した一対のエッジ列を構成するエッジ群の重心を特定し;該重心を通る前記一対の接線に対する法線を特定し;該法線と前記一対の接線の交点を特定し、該一対の交点間の線分を前記レーンのセグメントとして設定し;該セグメントに基づき前記両側の境界線を特定した画像を更新することとしたものである。
【0012】
また、本発明の路面上のレーン検出装置は、請求項2に記載し図2に示したように、検出対象とする路面上のレーンの両側の境界線を含む画像情報を入力し該画像情報の濃淡に基づきエッジを検出し、前記両側の境界線を表すエッジを順次出力するエッジ検出手段EDと、エッジ検出手段EDが出力した前記両側の境界線を表すエッジを順次格納し、前記両側の境界線を表す連続した二列のエッジ群を形成するエッジメモリ手段EMと、少くとも前記二列のエッジ群に基づき3次元平面上で前記両側の境界線を特定する画像処理手段DPと、前記両側の境界線を特定した前回の画像に基づき前記両側の境界線に対する曲率中心を特定する曲率中心特定手段RCと、エッジメモリ手段EMが新たに格納し前記両側の境界線を表す連続した二列のエッジ群を形成するエッジ群の中から、前記曲率中心を中心とする同心円弧に沿って夫々所定距離分の一対のエッジ列を抽出するエッジ列抽出手段ESと、エッジ列抽出手段ESが抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定する接線特定手段TLと、エッジ列抽出手段ESが抽出した一対のエッジ列を構成するエッジ群の重心を特定する重心特定手段GCと、前記重心を通る前記一対の接線に対する法線を特定する法線特定手段NLと、前記法線と前記一対の接線の交点を特定し、該一対の交点間の線分を前記レーンのセグメントとして設定し、該セグメントを画像処理手段DPに出力するセグメント設定手段SDとを備え、画像処理手段DPが、前記セグメントに基づき前記両側の境界線を特定した画像を更新するように構成したものである。このレーン検出装置においては、前記検出対象を含む可視領域を撮像する撮像手段CSを備えたものとし、撮像手段CSが撮像した画像情報をエッジ検出手段EDに入力し、前記エッジを検出するように構成するとよい。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面を参照し乍ら説明する。図1は、本発明の一実施形態に係るレーン検出方法の原理を説明するもので、先ず、(1)前回の画面情報に基づき検出対象の路面のレーン形状が特定できているものとし、この曲率中心Cに対して新しい画面での白線に対するエッジ群から、同心円弧に沿ってエッジ列を抽出する。次に、(2)両側(左右)の各エッジ列に対する接線方程式を求める。このとき、左右の白線は平行であるという拘束条件を設け、最小自乗法により2本の接線方程式を求めると共に、エッジ群の重心Gを求める。これらに基づき、(3)エッジ群の重心Gを通り左右の接線に直交する直線即ち法線の方程式を求め、法線と左右の接線との交点を求める。そして、(4)左右の交点間を結ぶ線分をレーンのセグメントSiとして設定し、(5)セグメントSiに基づき、上記のレーン形状を特定した画像を更新する。而して、繰り返し演算することなくセグメントを求めることができる。
【0014】
更に、複数の区間で求めたセグメントに基づきレーン形状を幾何学的に特定することができる。即ち、図示は省略するが、複数のセグメントS1乃至Snを、手前から遠方に向かって順次連続して求めることにより、レーンの線形判別、任意区間の平均カーブ曲率半径、任意距離前方の方位、自動車のヨー角、横変位、レーン幅等を演算することができる。運転者の視点位置からセグメントS1乃至Snまでの道のり距離をD1乃至Dnとすると、セグメントSi,Sjの延長線上での交点は、道のり距離Di,Djの区間での曲率中心Cであり、曲率中心CとセグメントSi,Sjまでの距離は曲率半径Ri,Rjで表すことができる。このようにして、セグメントの任意の区間での曲率半径を演算することができる。そして、求められたセグメントの右側端点もしくは左側端点、又は中点の集合に対して曲線を当てはめれば、境界線又は中心線を曲線の方程式として表すことができるので、任意の道のり距離でのレーンの境界線又は中心線の方位を求めることができる。更に、上述した曲線を視点位置まで延長し、この位置でのセグメントを求めれば、視点位置でのヨー角、横変位、レーン幅を演算することもできる。
【0015】
次に、本発明のレーン検出装置の実施形態について図面を参照しながら説明する。本実施形態は、自動車の運転者の視界と一致する前方の可視領域内に存在する検出対象を、確実に検出し画像表示し得るように構成されている。図3はレーン検出装置の全体構成を示すもので、例えば固体撮像素子のCCDを用いたCCDカメラ1が、例えば自動車(図示せず)内の運転者の視点近傍に配置され前方の可視領域が撮像される。このCCDカメラ1で撮像されるアナログ信号の画像信号はエッジ検出部10のADコンバータ11に供給され、濃度に応じたデジタル信号に変換される。
【0016】
エッジ検出部10において、ADコンバータ11の出力信号は二本のラインバッファ12を介して検出回路13内のSobel のエッジ抽出オペレータ14に供給され、x方向及びy方向のエッジが検出されるように構成されている。また、CCDカメラ1の出力信号が同期信号としてx−yアドレス変換部15に供給される。このとき、エッジのx座標として10ビットが割り当てられ、y座標には9ビットが割り当てられ、最大値用に8ビットが割り当てられ、更に、正負の符号用に1ビットが割り当てられる。更に、検出回路13は後述するウィンドウゲート16を有し、検出対象判定部20に接続されている。尚、このエッジ検出部10は、ゲートアレーで構成することができる。
【0017】
検出対象判定部20はマイクロコンピュータで構成され、CPU21、ROM22、RAM23、出力用のシリアルポート24、割込カウンタ25、タイマ26等を有し、これらがアドレスバス及びデータ/コントロールバスを介して接続されている。尚、27は電源部である。RAM23は図4に示すようにウィンドウメモリ23wとエッジメモリ23eを有し、前者のウィンドウデータがウィンドウゲート16に供給されると共に、エッジ抽出オペレータ14の抽出データがウィンドウゲート16に供給され、ウィンドウゲート16内でこれらの論理積(AND)が演算され、その演算結果がエッジメモリ23eに供給されて格納される。
【0018】
図9は、ウィンドウメモリ23w内のテーブルメモリの一例を示すもので、図9の右側に示す画面の横又は縦(図9の例では横のx軸方向)の走査線480本に対応する0番地から479番地のアドレスが設定される。このアドレス毎に上記の走査線に応じて少くとも一つの基準点のx座標又はy座標(図9の例ではx座標のX0乃至X479)を設定すると共に、各基準点に対し所定の幅(図9の例ではW0乃至W479)が設定されて格納される。尚、図9の画面の左上角部の座標は(0,0)であり、右下角部の座標は(639,479)である。また、テーブルメモリが16ビットである場合には、ウィンドウのx座標設定用に10ビットが用いられ、幅の設定用に6ビットが用いられるように構成されるが、32ビットのメモリであれば、幅も略画面一杯に設定することができる。
【0019】
図4はエッジ検出に係る機能ブロック図で、同期信号Sが夫々水平カウンタ17及び垂直カウンタ18を介して、2本のラインバッファ12、3×3マトリクスレジスタ19、Sobel のエッジ抽出オペレータ14ex,14ey、ピーク検出部14px, 14pyに供給される。而して、2本のラインバッファ12を介して走査線3本の画像データが3×3マトリクスレジスタ19に供給され、エッジ抽出オペレータ14ex,14eyにて、2次元画面におけるx方向及びy方向のエッジが検出され、更にピーク検出部14px, 14pyにて求められた夫々のピーク値がエッジメモリ23eに供給される。尚、y方向のピーク値を求めるためピーク値検出用のメモリ23pが設けられている。一方、ウィンドウゲート16にてピーク判定されたときのピーク値検出用メモリ23pの内容とウィンドウメモリ23wのメモリ値との論理積(AND)が求められ、ウィンドウの位置及び幅がエッジメモリ23eに供給される。このエッジメモリ23eは、x方向及びy方向の濃度メモリ23gx,23gyとx方向及びy方向の座標メモリ23px,23pyを有し、夫々にエッジのピーク値が格納される。
【0020】
上記の構成になる本実施形態のレーン検出装置においては、図5乃至図8のフローチャートに従って画像処理が行なわれる。先ず図5のステップ101において、CCDカメラ1の全ての出力画像信号がADコンバータ11及びラインバッファ12を介して検出回路13に供給され、画像情報が取り込まれる。次に、ステップ102にてエッジが検出される。本実施形態ではこのエッジに基づき図10に示すように特徴点が設定され、この特徴点のx座標及びy座標が特定される。また、ステップ103において今回の画像処理時の検出対象ウィンドウが設定される。尚、この処理については図6を参照して後述する。
【0021】
図10は上記の特徴点の抽出状況を示すもので、先ず画像濃度を表す信号が微分され、微分値(ピーク値)が所定のしきい値によって二値化され所定幅の特徴領域Z1,Z2が形成される。更に、細線化処理が行なわれ、特徴領域Z1,Z2の中央部分の位置が特徴点P1,P2とされ、輪郭を表す基準とされる。このように、本実施形態では輪郭を表す指標として一般的なエッジのほかに特徴点が設定されるが、エッジをそのまま用いることとしてもよい。
【0022】
続いて、ステップ104において、ステップ102にてエッジに基づいて設定された特徴点と、ステップ103で設定された検出対象ウィンドウの論理積(AND)がとられ、このウィンドウ内の特徴点が抽出される。そして、ステップ105に進むが、ステップ105以降は検出対象が曲線又は直線状の場合に特有の処理であり、具体的には本実施形態が対象とする自動車走行用のレーンの白線の特定に好適な処理である。
【0023】
ステップ105においては、図11及び図12に示すように、ステップ104で抽出された画面上の特徴点が路面上に存在するように、特徴点の位置が3次元平面上の位置に変換される。尚、前述の2次元平面の座標軸x,yに対し、3次元平面の座標軸をX,Y,Zで表す。上記のように3次元平面上の位置に変換された特徴点によって、ステップ106にてレーンのセグメントが特定されるが、これについては図7及び図8を参照して後述する。続いて、ステップ107にてセグメントの配列に対し数学モデルが当てはめられ、更にステップ108に進み、合致する数学モデルによってレーン形状を表すパラメータ(曲率半径、レーンの幅等)が計測される。更に、ステップ109に進み、レーン形状を表すパラメータが2次元平面座標に換算され、次回の検出対象ウィンドウの設定に供される。
【0024】
次に、図6を参照して、ステップ103において実行される検出対象ウィンドウの設定について説明する。ステップ201において検出対象ウィンドウ(以下、単にウィンドウという)の縦軸(y軸)の上端及び下端を設定する値が、夫々所定値yb,ytに設定され(本実施形態では、yb≧0,yt≦479)、縦軸(y軸)上の位置yの値が画面の最下端(y=479)に設定される。
【0025】
続いて、ステップ203においてウィンドウの左側設定用のメモリ(y)及び右側設定用のメモリ(y)が夫々キャンセル(無効)され、ステップ204においてy軸上の位置yの値がディクリメント(−1)された後、ステップ205にて所定値ybと比較され、所定値yb以下となるまでステップ203及び204が繰り返される。y軸上の位置yの値が所定値yb以下となると、ステップ206に進み、所定値ybとされる。このようにして画面の下端が設定され、画面の下方の位置ybからステップ207以降の処理が開始する。
【0026】
ステップ207においては、ウィンドウの幅がw(y) に設定される。ウィンドウの幅w(y) は、一定(w(y) =Ky,但しKyは定数)としてもよいし、3次元平面上でウィンドウの幅が一定になるように設定してもよい。あるいは、遠方でウィンドウの幅が拡大するように設定してもよい。そして、ステップ208にてウィンドウの左側設定用のメモリ(y)の始点が、fl(y) −w(y)/2に設定される。ここで、fl(y) は2次元画面上での左側の白線形状の中心線を表し、前回の値である。
【0027】
また、ステップ209にてウィンドウの左側設定用のメモリ(y)の幅が、w(y) に設定される。同様に、ステップ210にてウィンドウの右側設定用のメモリ(y)の始点が、fr(y) −w(y)/2に設定され、ステップ211にてウィンドウの右側設定用のメモリ(y)の幅が、w(y) に設定される。尚、fr(y) は2次元画面上での右側の白線形状の中心線を表し、前回の値である。このように、本実施形態ではウィンドウの形状は基準点(始点)と幅によって規定されるが、始点と終点を設定することとしてもよい。
【0028】
次に、ステップ212においてy軸上の位置yの値がディクリメント(−1)された後、ステップ213にて画面の上端を表す所定値ytと比較され、所定値ytを下回るまでステップ207乃至212が繰り返される。y軸上の位置yの値が所定値ytを下回ると、ステップ214に進む。
【0029】
而して、画面に予め設定した上端を超えることになるので、ステップ214においてウィンドウの左側設定用のメモリ(y)及び右側設定用のメモリ(y)がキャンセルされ、ステップ215においてy軸上の位置yの値がディクリメント(−1)された後、ステップ216にて0と比較され、y軸上の位置yの値が0を下回るまでステップ214及び215が繰り返され、y軸上の位置yの値が0を下回ると図5のルーチンに戻る。
【0030】
図5のステップ106におけるレーンのセグメントの設定は、図7及び図8のフローチャートに従って実行される。先ず、ステップ301において前回の画像に表示された白線の線形形状が判定され、カーブしていると判定されるとステップ302以降に進み、直線と判定されるとステップ316以降(図8)に進む。白線がカーブしていると判定されると、ステップ302においてセグメントを表す番号iがクリアされた後、カーブ内側の白線に対し、ステップ303にてセグメント番号iの領域の始点がIP1とされ、ステップ304にてセグメント番号iの領域の終点がIP2とされる。
【0031】
次に、ステップ305において、図1に示すように前回の画像に表示された白線を円弧としたときの中心Cと始点IP1を通る直線がL1とされ、ステップ306において中心Cと終点IP2を通る直線がL2とされる。続いて、ステップ307,308に進み、直線L1とカーブ外側の白線との交点がOP1とされると共に、直線L2とカーブ外側の白線との交点がOP2とされる。
【0032】
そして、ステップ309において交点IP1と交点IP2との間の白線を構成するエッジ群の各座標が演算用行列に供されると共に、ステップ310において交点OP1と交点OP2との間の白線を構成するエッジ群の各座標が演算用行列に供される。これらの演算結果に基づき、ステップ311において一対のエッジ列を構成するエッジ群に対し、最小二乗法により平行線が当てはめられ、一対の接線が特定される。また、ステップ312において一対のエッジ列を構成するエッジ群の重心Gが求められ、この重心Gを通る平行線モデルの法線がステップ313にてSiとされる。即ち、平行線モデル間の線分がレーンのセグメントSiとされる。以上の処理が行なわれた後、セグメント番号iがインクリメント(+1)され、nとなるまでステップ303乃至ステップ314の処理が繰り返される。
【0033】
一方、ステップ301において前回の画像に表示された白線の線形形状が直線と判定されると、図8のステップ316においてセグメントを表す番号iがクリアされた後、例えば右側の白線に対し、ステップ317にてセグメント番号iの領域の始点がRP1とされ、ステップ318にてセグメント番号iの領域の終点がRP2とされる。続いて、ステップ319,320に進み、左側の白線に対しセグメント番号iの領域の始点がLP1とされ、セグメント番号iの領域の終点がLP2とされる。
【0034】
そして、ステップ321において始点RP1と終点RP2との間の白線を構成するエッジ群の各座標が最小二乗法演算用行列に供されると共に、ステップ322において始点LP1と終点LP2との間の白線を構成するエッジ群の各座標が最小二乗法演算用行列に供される。これらの演算結果に基づき、ステップ323において一対のエッジ列を構成するエッジ群に対し、最小二乗法により平行線が当てはめられ、一対の接線が特定される。また、ステップ324において一対のエッジ列を構成するエッジ群の重心Gが求められ、この重心Gを通る平行線モデルの法線がステップ325にてSiとされる。而して、この法線Siの平行線モデル間の線分がレーンのセグメントとされる。以上の処理が行なわれた後、セグメント番号iがインクリメント(+1)され、nとなるまでステップ317乃至ステップ326の処理が繰り返される。
【0035】
以上のように、本実施形態においては繰り返し演算を行なうことなくレーンのセグメントが設定されるので、安価に構成することができる。また、両側の白線の接線が平行線であることを拘束条件としているので、従前の白線毎に接線を求める方法に比し、路面や白線の汚れ等のノイズに影響され難く、適切にレーンのセグメントを設定することができる。更に、「レーン幅が一定」という拘束条件を加えれば、ノイズの影響を一層受け難くくなる。
【0036】
【発明の効果】
本発明は前述のように構成されているので以下に記載の効果を奏する。即ち、請求項1に係る路面上のレーン検出方法は、抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定し、これら一対のエッジ列を構成するエッジ群の重心を特定し、この重心を通る一対の接線に対する法線を特定し、この法線と一対の接線の交点を特定し、これら一対の交点間の線分をレーンのセグメントとして設定するととしているので、ノイズに影響されにくく、迅速且つ適切にレーン検出を行なうことができる。
【0037】
また、請求項2に記載の路面上のレーン検出装置は、エッジ列抽出手段が抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定する接線特定手段と、エッジ列抽出手段が抽出した一対のエッジ列を構成するエッジ群の重心を特定する重心特定手段と、前記重心を通る前記一対の接線に対する法線を特定する法線特定手段を具備し、セグメント設定手段により、前記法線と前記一対の接線の交点を特定し、該一対の交点間の線分をレーンのセグメントとして設定するように構成されているので、ノイズに影響されにくく、迅速且つ適切にレーンを検出することができる。
【図面の簡単な説明】
【図1】本発明の路面上のレーン検出方法におけるセグメントの設定方法を示す説明図である。
【図2】本発明の路面上のレーン検出装置の構成の概要を示すブロック図である。
【図3】本発明一実施形態の全体構成を示すブロック図である。
【図4】本発明の一実施形態におけるエッジ検出部の構成を示すブロック図である。
【図5】本発明の一実施形態における画像処理を示すフローチャートである。
【図6】本発明の一実施形態における検出対象ウィンドウ設定の処理を示すフローチャートである。
【図7】本発明の一実施形態におけるセグメント設定の処理を示すフローチャートである。
【図8】本発明の一実施形態におけるセグメント設定の処理を示すフローチャートである。
【図9】本発明の一実施形態におけるウィンドウ設定メモリを示す構成図である。
【図10】本発明の一実施形態における特徴点の検出状況を示すグラフである。
【図11】本発明の一実施形態において特徴点の位置を3次元平面上の位置に変換する状況を示す図である。
【図12】本発明の一実施形態において特徴点の位置を3次元平面上の位置に変換する状況を示す図である。
【図13】従来の道路セグメントの設定方法の一例を説明する図である。
【図14】従来の道路セグメントの設定方法の他の例を説明する図である。
【符号の説明】
1 CCDカメラ
10 エッジ検出部
11 ADコンバータ
12 ラインバッファ
13 検出回路
14 エッジ抽出オペレータ
15 x−yアドレス変換部
16 ウィンドウゲート
20 検出対象判定部
23w ウィンドウメモリ
23e エッジメモリ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method and apparatus for detecting a lane on a road surface, and in particular, detects a lane on a road surface by specifying boundary lines on both sides based on image information in a visible region that coincides with a driver's field of view in front of a car. The present invention relates to a method and apparatus for detecting lanes.
[0002]
[Prior art]
In general, when the road boundary line is specified geometrically, the positions of the white lines on both sides (left and right) of the road are associated with each other. Here, “associating” means that when obtaining the tangent line of the left and right white lines, the position where the normal line toward the center of curvature is shared in the road plane is determined. The intersection of the normal and the tangent is called “corresponding point”, and the line segment connecting the corresponding points on the left and right is called “road segment”. Thus, when road segments are obtained at a plurality of positions on the road and arranged in parallel, a road plane is represented, and each road segment indicates the direction of the road at the segment position.
[0003]
Regarding the method for identifying the above road boundary line, a paper written by Keio University and Shinji Ozawa “Determining Corresponding Points in Road Image Analysis” (The Institute of Electronics, Information and Communication Engineers Journal D-II Vol. J72-D-II No. 5pp. 827-830 issued in May 1989), the tangent vector T of the lane is obtained using the position of the infinity point, and the unit segment vector S that is the normal to the left and right tangent vectors is obtained as shown in FIG. Thus, a method of searching for a combination of tangent vectors where S · T = 0 has been proposed.
[0004]
The University of Maryland, D. DeMenthon's paper “A ZERO-BANK ALGORITHM FOR INVERSE PERSPECTIVE OF ROAD FROM A SINGLE IMAGE”, Proc. IEEE Inters. The following method is proposed in March 1987). That is, if the left and right tangent lines of the road boundary line are parallel, the normal line from one tangent line is also the normal line in the other tangent line, and satisfies the road segment condition. For example, as shown in FIG. 14, when the left and right tangents N1-N2 and M1-M2 are not parallel, the intersection R deviates from the expected position as the end point of the road segment with respect to the tangent N1-N2. Therefore, it is described that when the road is curved, the center of curvature and the lane width can be calculated using the normal from the left and right tangents.
[0005]
On the other hand, an image processing apparatus that processes image information in the visible region in front of an automobile and uses it for various purposes has been proposed. Japanese Laid-Open Patent Publication No. 6-215137 detects feature point information in an image at high speed. It is an object of the present invention to provide an image processing apparatus that can perform scanning, and a scanning area is determined by a combination of scanning line information (scanning start coordinates, scanning end coordinates) written on the scanning table memory means. Specifically, when detecting the outline of a white line (lane) heading in the direction of travel, the area where the white line exists is usually limited to a narrow range, so only the image data in that narrow range is detected. In order to scan, a scanning area (referred to as a window) is determined by a combination of scanning line information (scanning start coordinates, scanning end coordinates) written on the scanning table memory means.
[0006]
[Problems to be solved by the invention]
Regarding the method for specifying the road boundary line described above, in the method described in the former paper, it is necessary to repeat the operation until S · T = 0, so that there remains a problem in responsiveness. Further, in the boundary line specifying method described in the latter paper, there is no mention of how to obtain a tangent for detecting a correct road segment.
[0007]
In order to obtain such a road segment, it is ultimately necessary to cut out the edges of the left and right white lines within the same distance range and obtain the tangent of the road boundary line in that section. For example, on a straight road, a set of white lines on the left and right within the same distance range, on a curved road, a set of white lines within the same distance, that is, a section of concentric arcs separated by the same angle with respect to the same center of curvature. It is necessary to cut out a set of white lines. However, when the left and right white line edges are not in the same distance distance section, the combination of the white line edge sections in which the left and right tangent lines are parallel is searched, but the calculation is inevitably repeated.
[0008]
In the above-mentioned paper, road boundaries, road segments, etc. are expressed. However, in reality, two light-colored lines such as white that are parallel to each other with a certain distance on the road surface (representative) Then, white lines) are applied to form boundary lines on both sides (left and right), and a region between these boundary lines serves as a lane (hereinafter referred to as a lane) for driving an automobile or the like. Accordingly, the lane on the road surface can be detected by specifying the two white lines. From this point, in the present application, “lane segment” or simply “segment” is used instead of “road segment”, and “lane boundary” is used instead of “road boundary”. Accordingly, white lines are provided at both ends of the road, and when a road is detected by specifying these, it means a lane, that is, a road.
[0009]
Therefore, an object of the present invention is to provide a lane detection method that can set a segment without performing repetitive calculations and can quickly and appropriately detect a lane on a road surface.
[0010]
Another object of the present invention is to provide a lane detection device that can quickly and appropriately detect a lane on a road surface.
[0011]
[Means for Solving the Problems]
In order to solve the above problems, the road lane detection method of the present invention is based on the density of image information including the boundary lines on both sides of the lane on the road surface to be detected, as described in claim 1. Edges representing the boundary lines on both sides are detected and sequentially stored in an edge memory to form two consecutive rows of edge groups representing the boundary lines on both sides; a three-dimensional plane based on at least the two rows of edge groups Identifying the boundary lines on both sides above; identifying the center of curvature for the boundary lines on both sides based on the previous image that identified the boundary lines on both sides; and storing the boundary lines on both sides newly in the edge memory; A pair of edge sequences corresponding to a predetermined distance are extracted from the edge groups forming two consecutive edge groups to be represented along a concentric arc centered on the center of curvature. When each Identifying a pair of tangents to the column; identifying a centroid of an edge group constituting the extracted pair of edge sequences; identifying a normal to the pair of tangents passing through the centroid; and determining the normal and the pair of tangents An intersection point is specified, and a line segment between the pair of intersection points is set as a segment of the lane; an image specifying the boundary lines on both sides based on the segment is updated.
[0012]
The road surface lane detection apparatus according to the present invention, as described in claim 2 and shown in FIG. 2, inputs image information including boundary lines on both sides of the lane on the road surface to be detected. Edge detection means ED for detecting edges based on the shading of the two sides, sequentially outputting edges representing the boundary lines on both sides, and sequentially storing the edges representing the boundary lines on both sides output by the edge detection means ED; Edge memory means EM for forming two consecutive rows of edges representing the boundary lines, image processing means DP for identifying the boundary lines on both sides on a three-dimensional plane based on at least the two rows of edge groups, Curvature center specifying means RC for specifying the center of curvature with respect to the boundary lines on both sides based on the previous image specifying the boundary lines on both sides, and two consecutive rows representing the boundary lines on the both sides newly stored by the edge memory means EM of Edge sequence extracting means ES for extracting a pair of edge sequences for a predetermined distance along the concentric arc centered on the center of curvature from the edge groups forming the wedge group, and edge sequence extracting means ES The tangent specifying means TL for specifying a pair of tangents to each edge row when the pair of edge rows are parallel, and the centroid of the edge group constituting the pair of edge rows extracted by the edge row extracting means ES are specified. The center of gravity specifying means GC, the normal specifying means NL for specifying the normal to the pair of tangents passing through the center of gravity, the intersection of the normal and the pair of tangents are specified, and the line segment between the pair of intersections is determined. A segment setting unit SD that sets the segment as a lane segment and outputs the segment to the image processing unit DP, and the image processing unit DP identifies the boundary lines on both sides based on the segment. Were those configured to update the image. In this lane detection apparatus, it is assumed that the imaging means CS that images the visible region including the detection target is provided, and the image information captured by the imaging means CS is input to the edge detection means ED so as to detect the edge. Configure.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 explains the principle of a lane detection method according to an embodiment of the present invention. First, (1) it is assumed that the lane shape of the road surface to be detected can be specified based on the previous screen information. An edge row is extracted along a concentric arc from the edge group for the white line on the new screen with respect to the center of curvature C. Next, (2) a tangent equation for each edge row on both sides (left and right) is obtained. At this time, the constraint that the left and right white lines are parallel is provided, and two tangent equations are obtained by the least square method, and the center of gravity G of the edge group is obtained. Based on these, (3) an equation of a straight line that passes through the center of gravity G of the edge group and is orthogonal to the left and right tangents, that is, a normal line is obtained, and the intersection of the normal and the left and right tangents is obtained. (4) A line segment connecting the left and right intersections is set as a lane segment Si, and (5) the image specifying the lane shape is updated based on the segment Si. Thus, the segment can be obtained without repeated calculation.
[0014]
Furthermore, the lane shape can be specified geometrically based on the segments obtained in a plurality of sections. That is, although not shown in the figure, by sequentially obtaining a plurality of segments S1 to Sn from the front toward the far side, the linear determination of the lane, the average curve curvature radius of the arbitrary section, the azimuth ahead of the arbitrary distance, the automobile The yaw angle, lateral displacement, lane width, etc. can be calculated. If the road distances from the driver's viewpoint position to the segments S1 to Sn are D1 to Dn, the intersection point on the extension line of the segments Si and Sj is the center of curvature C in the section of the road distances Di and Dj, and the center of curvature. The distance between C and the segments Si and Sj can be expressed by the curvature radii Ri and Rj. In this way, the radius of curvature in an arbitrary section of the segment can be calculated. If a curve is applied to the right end point, left end point, or set of midpoints of the obtained segment, the boundary line or center line can be expressed as a curve equation. The boundary line or center line direction can be obtained. Further, if the above-described curve is extended to the viewpoint position and a segment at this position is obtained, the yaw angle, lateral displacement, and lane width at the viewpoint position can be calculated.
[0015]
Next, an embodiment of the lane detection device of the present invention will be described with reference to the drawings. The present embodiment is configured to reliably detect and display an image of a detection target existing in a forward visible region that matches the field of view of the driver of the automobile. FIG. 3 shows the overall configuration of the lane detection apparatus. For example, a CCD camera 1 using a CCD of a solid-state image sensor is arranged in the vicinity of a driver's viewpoint in, for example, an automobile (not shown), and a visible region in front is shown. Imaged. An analog image signal picked up by the CCD camera 1 is supplied to the AD converter 11 of the edge detector 10 and converted into a digital signal corresponding to the density.
[0016]
In the edge detection unit 10, the output signal of the AD converter 11 is supplied to the Sobel edge extraction operator 14 in the detection circuit 13 via the two line buffers 12 so that the edges in the x and y directions are detected. It is configured. The output signal of the CCD camera 1 is supplied to the xy address converter 15 as a synchronization signal. At this time, 10 bits are assigned as the x coordinate of the edge, 9 bits are assigned to the y coordinate, 8 bits are assigned for the maximum value, and 1 bit is assigned for the positive and negative signs. Further, the detection circuit 13 includes a window gate 16 described later, and is connected to the detection target determination unit 20. The edge detection unit 10 can be composed of a gate array.
[0017]
The detection target determination unit 20 is composed of a microcomputer, and includes a CPU 21, ROM 22, RAM 23, output serial port 24, interrupt counter 25, timer 26, etc., which are connected via an address bus and a data / control bus. Has been. Reference numeral 27 denotes a power supply unit. As shown in FIG. 4, the RAM 23 has a window memory 23w and an edge memory 23e. The former window data is supplied to the window gate 16, and the extraction data of the edge extraction operator 14 is supplied to the window gate 16. These logical products (AND) are calculated in 16 and the calculation result is supplied to and stored in the edge memory 23e.
[0018]
FIG. 9 shows an example of the table memory in the window memory 23w, and 0 corresponding to 480 scanning lines in the horizontal or vertical direction (the horizontal x-axis direction in the example of FIG. 9) shown on the right side of FIG. Addresses from address 479 are set. For each address, the x-coordinate or y-coordinate of at least one reference point (in the example of FIG. 9, X0 to X479 of the x-coordinate) is set for each address, and a predetermined width ( In the example of FIG. 9, W0 to W479) are set and stored. The coordinates of the upper left corner of the screen in FIG. 9 are (0, 0), and the coordinates of the lower right corner are (639, 479). When the table memory is 16 bits, 10 bits are used for setting the x coordinate of the window and 6 bits are used for setting the width. , The width can also be set almost full screen.
[0019]
FIG. 4 is a functional block diagram relating to edge detection. The synchronization signal S is sent through the horizontal counter 17 and the vertical counter 18 to the two line buffers 12, 3 × 3 matrix register 19, Sobel edge extraction operators 14ex, 14ey, respectively. The peak detectors 14px and 14py are supplied. Thus, the image data of the three scanning lines is supplied to the 3 × 3 matrix register 19 via the two line buffers 12, and the edge extraction operators 14ex and 14ey perform the x-direction and y-direction on the two-dimensional screen. Edges are detected, and the peak values obtained by the peak detectors 14px and 14py are supplied to the edge memory 23e. Note that a peak value detection memory 23p is provided to obtain the peak value in the y direction. On the other hand, a logical product (AND) of the contents of the peak value detection memory 23p when the peak is determined by the window gate 16 and the memory value of the window memory 23w is obtained, and the position and width of the window are supplied to the edge memory 23e. Is done. The edge memory 23e has density memories 23gx and 23gy in the x direction and y direction and coordinate memories 23px and 23py in the x direction and y direction, and stores peak values of the edges, respectively.
[0020]
In the lane detection apparatus of the present embodiment configured as described above, image processing is performed according to the flowcharts of FIGS. First, in step 101 of FIG. 5, all output image signals of the CCD camera 1 are supplied to the detection circuit 13 via the AD converter 11 and the line buffer 12, and image information is captured. Next, at step 102, an edge is detected. In this embodiment, a feature point is set based on this edge as shown in FIG. 10, and the x coordinate and y coordinate of this feature point are specified. In step 103, a detection target window for the current image processing is set. This process will be described later with reference to FIG.
[0021]
FIG. 10 shows the above-described feature point extraction situation. First, a signal representing the image density is differentiated, and the differential value (peak value) is binarized by a predetermined threshold value, and feature regions Z1, Z2 having a predetermined width. Is formed. Further, a thinning process is performed, and the positions of the central portions of the feature regions Z1 and Z2 are set as feature points P1 and P2, which are used as a reference representing the contour. As described above, in this embodiment, feature points are set in addition to general edges as indices representing contours, but the edges may be used as they are.
[0022]
Subsequently, in step 104, the logical product (AND) of the feature point set based on the edge in step 102 and the detection target window set in step 103 is taken, and the feature point in this window is extracted. The Then, the process proceeds to step 105. Step 105 and subsequent steps are processing that is unique when the detection target is a curve or a straight line, and is specifically suitable for specifying the white line of the lane for automobile travel targeted by this embodiment. It is a serious process.
[0023]
In step 105, as shown in FIGS. 11 and 12, the position of the feature point is converted to a position on the three-dimensional plane so that the feature point on the screen extracted in step 104 exists on the road surface. . Note that the coordinate axes of the three-dimensional plane are represented by X, Y, and Z with respect to the coordinate axes x and y of the two-dimensional plane described above. The segment of the lane is specified in step 106 based on the feature point converted to the position on the three-dimensional plane as described above, which will be described later with reference to FIGS. Subsequently, in step 107, a mathematical model is applied to the segment arrangement, and the process further proceeds to step 108, where parameters (curvature radius, lane width, etc.) representing the lane shape are measured by the matched mathematical model. Further, the process proceeds to step 109, where the parameter representing the lane shape is converted into a two-dimensional plane coordinate and used for setting the next detection target window.
[0024]
Next, setting of the detection target window executed in step 103 will be described with reference to FIG. In step 201, values for setting the upper end and the lower end of the vertical axis (y axis) of the detection target window (hereinafter simply referred to as a window) are set to predetermined values yb and yt, respectively (in this embodiment, yb ≧ 0, yt). ≦ 479), the value of the position y on the vertical axis (y-axis) is set to the lowest end of the screen (y = 479).
[0025]
Subsequently, in step 203, the left-side setting memory (y) and right-side setting memory (y) of the window are canceled (invalid), and in step 204, the value of the position y on the y-axis is decremented (−1). ) Is compared with the predetermined value yb in step 205, and steps 203 and 204 are repeated until the predetermined value yb or less is reached. When the value of the position y on the y-axis becomes equal to or smaller than the predetermined value yb, the process proceeds to step 206, where the predetermined value yb is set. In this way, the lower end of the screen is set, and processing from step 207 onward is started from a position yb below the screen.
[0026]
In step 207, the window width is set to w (y). The window width w (y) may be constant (w (y) = Ky, where Ky is a constant), or may be set so that the window width is constant on a three-dimensional plane. Or you may set so that the width | variety of a window may expand in a distant place. In step 208, the starting point of the memory (y) for setting the left side of the window is set to fl (y) -w (y) / 2. Here, fl (y) represents the center line of the white line shape on the left side on the two-dimensional screen, and is the previous value.
[0027]
In step 209, the width of the memory (y) for setting the left side of the window is set to w (y). Similarly, in step 210, the starting point of the memory (y) for setting the right side of the window is set to fr (y) −w (y) / 2, and in step 211, the memory for setting the right side of the window (y) Is set to w (y). Fr (y) represents the center line of the right white line shape on the two-dimensional screen, and is the previous value. As described above, in this embodiment, the window shape is defined by the reference point (start point) and the width, but the start point and the end point may be set.
[0028]
Next, after the value of the position y on the y-axis is decremented (−1) in step 212, it is compared with a predetermined value yt representing the upper end of the screen in step 213, and steps 207 to 207 until it falls below the predetermined value yt. 212 is repeated. When the value of the position y on the y axis falls below the predetermined value yt, the process proceeds to step 214.
[0029]
Thus, since the upper end preset in the screen is exceeded, the left-side setting memory (y) and right-side setting memory (y) of the window are canceled in step 214, and in step 215 on the y-axis. After the value of position y has been decremented (−1), it is compared with 0 in step 216, and steps 214 and 215 are repeated until the value of position y on the y-axis is less than 0. When the value of y falls below 0, the routine returns to the routine of FIG.
[0030]
The setting of the lane segments in step 106 in FIG. 5 is executed according to the flowcharts in FIGS. 7 and 8. First, in step 301, the linear shape of the white line displayed in the previous image is determined. If it is determined that the white line is curved, the process proceeds to step 302 and thereafter, and if it is determined to be a straight line, the process proceeds to step 316 and later (FIG. 8). . If it is determined that the white line is curved, after the number i representing the segment is cleared in step 302, the start point of the area of the segment number i is set to IP1 in step 303 with respect to the white line inside the curve. At 304, the end point of the area of segment number i is set to IP2.
[0031]
Next, in step 305, a straight line passing through the center C and the start point IP1 when the white line displayed in the previous image is an arc as shown in FIG. 1 is set to L1, and in step 306, the line passes through the center C and the end point IP2. The straight line is L2. Subsequently, the process proceeds to steps 307 and 308, where the intersection of the straight line L1 and the white line outside the curve is OP1, and the intersection of the straight line L2 and the white line outside the curve is OP2.
[0032]
In step 309, the coordinates of the edge group forming the white line between the intersection point IP1 and the intersection point IP2 are provided to the calculation matrix, and in step 310, the edge forming the white line between the intersection point OP1 and the intersection point OP2 Each coordinate of the group is provided to a calculation matrix. Based on these calculation results, in step 311, parallel lines are fitted to the edge group constituting the pair of edge rows by the method of least squares, and the pair of tangent lines are specified. In step 312, the centroid G of the edge group constituting the pair of edge rows is obtained, and the normal of the parallel line model passing through the centroid G is set to Si in step 313. That is, the line segment between the parallel line models is the lane segment Si. After the above processing is performed, the segment number i is incremented (+1), and the processing from step 303 to step 314 is repeated until it reaches n.
[0033]
On the other hand, if it is determined in step 301 that the linear shape of the white line displayed in the previous image is a straight line, the number i representing the segment is cleared in step 316 in FIG. In step 318, the start point of the segment number i area is set to RP1, and in step 318, the end point of the segment number i area is set to RP2. Subsequently, the process proceeds to steps 319 and 320, where the start point of the segment number i area is LP1 and the end point of the segment number i area is LP2 with respect to the white line on the left side.
[0034]
In step 321, the coordinates of the edge group constituting the white line between the start point RP1 and the end point RP2 are provided to the least squares matrix, and in step 322, the white line between the start point LP1 and the end point LP2 is displayed. Each coordinate of the edge group which comprises is used for the least squares method matrix. Based on these calculation results, in step 323, parallel lines are fitted to the edge group constituting the pair of edge rows by the least square method, and the pair of tangent lines are specified. In step 324, the centroid G of the edge group constituting the pair of edge rows is obtained, and the normal of the parallel line model passing through the centroid G is set to Si in step 325. Thus, a line segment between the parallel line models of the normal line Si is defined as a lane segment. After the above processing is performed, the segment number i is incremented (+1), and the processing from step 317 to step 326 is repeated until it reaches n.
[0035]
As described above, in this embodiment, the lane segments are set without performing repetitive calculations, so that the configuration can be made inexpensively. In addition, since the constraint is that the tangent of the white line on both sides is a parallel line, it is less susceptible to noise such as dirt on the road surface and white line, compared to the previous method of obtaining the tangent for each white line. Segments can be set. Furthermore, if the constraint condition that “the lane width is constant” is added, it becomes less susceptible to noise.
[0036]
【The invention's effect】
Since the present invention is configured as described above, the following effects can be obtained. In other words, the road lane detection method according to claim 1 specifies a pair of tangents to each edge row when the pair of extracted edge rows are parallel, and the edge groups constituting the pair of edge rows are identified. Since the center of gravity is specified, the normal to a pair of tangents passing through this center of gravity is specified, the intersection of this normal and a pair of tangents is specified, and the line segment between the pair of intersections is set as a lane segment The lane detection can be performed quickly and appropriately without being affected by noise.
[0037]
The road surface lane detection device according to claim 2 includes a tangent specifying unit that specifies a pair of tangents to each edge row when the pair of edge rows extracted by the edge row extraction unit are parallel, and an edge A segment setting means, comprising: a centroid specifying means for specifying the centroid of the edge group constituting the pair of edge rows extracted by the row extracting means; and a normal specifying means for specifying a normal to the pair of tangents passing through the centroid. To identify the intersection of the normal line and the pair of tangents, and set the line segment between the pair of intersections as a lane segment. Can be detected.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a segment setting method in a lane detection method on a road surface according to the present invention.
FIG. 2 is a block diagram showing an outline of a configuration of a lane detection device on a road surface according to the present invention.
FIG. 3 is a block diagram showing an overall configuration of an embodiment of the present invention.
FIG. 4 is a block diagram illustrating a configuration of an edge detection unit according to an embodiment of the present invention.
FIG. 5 is a flowchart showing image processing in an embodiment of the present invention.
FIG. 6 is a flowchart showing detection target window setting processing in an embodiment of the present invention.
FIG. 7 is a flowchart showing segment setting processing in an embodiment of the present invention.
FIG. 8 is a flowchart showing segment setting processing in an embodiment of the present invention.
FIG. 9 is a configuration diagram showing a window setting memory according to an embodiment of the present invention.
FIG. 10 is a graph illustrating a feature point detection state according to an embodiment of the present invention.
FIG. 11 is a diagram illustrating a situation in which the position of a feature point is converted to a position on a three-dimensional plane in an embodiment of the present invention.
FIG. 12 is a diagram illustrating a situation in which the position of a feature point is converted to a position on a three-dimensional plane in an embodiment of the present invention.
FIG. 13 is a diagram illustrating an example of a conventional road segment setting method.
FIG. 14 is a diagram for explaining another example of a conventional road segment setting method.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 CCD camera 10 Edge detection part 11 AD converter 12 Line buffer 13 Detection circuit 14 Edge extraction operator 15 xy address conversion part 16 Window gate 20 Detection target determination part 23w Window memory 23e Edge memory

Claims (2)

検出対象とする路面上のレーンの両側の境界線を含む画像情報の濃淡に基づき、前記両側の境界線を表すエッジを検出して順次エッジメモリに格納し、前記両側の境界線を表す連続した二列のエッジ群を形成し;少くとも前記二列のエッジ群に基づき3次元平面上で前記両側の境界線を特定し;前記両側の境界線を特定した前回の画像に基づき前記両側の境界線に対する曲率中心を特定し;前記エッジメモリに新たに格納し前記両側の境界線を表す連続した二列のエッジ群を形成するエッジ群の中から、前記曲率中心を中心とする同心円弧に沿って夫々所定距離分の一対のエッジ列を抽出し;抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定し;抽出した一対のエッジ列を構成するエッジ群の重心を特定し;該重心を通る前記一対の接線に対する法線を特定し;該法線と前記一対の接線の交点を特定し、該一対の交点間の線分を前記レーンのセグメントとして設定し;該セグメントに基づき前記両側の境界線を特定した画像を更新することを特徴とする路面上のレーン検出方法。Based on the density of the image information including the boundary lines on both sides of the lane on the road surface to be detected, the edges representing the boundary lines on both sides are detected and sequentially stored in the edge memory, and the boundary lines on both sides are continuously represented. Forming two rows of edge groups; identifying boundary lines on both sides on a three-dimensional plane based on at least the two rows of edge groups; and defining boundary lines on both sides based on a previous image identifying the boundary lines on both sides A center of curvature for a line is identified; among the edge groups that are newly stored in the edge memory and form two successive rows of edges representing the boundary lines on both sides, along a concentric arc centered on the center of curvature A pair of edge rows corresponding to a predetermined distance are extracted; a pair of tangents to each edge row is specified when the extracted pair of edge rows are parallel; a pair of edge groups constituting the extracted pair of edge rows Identify the center of gravity Specifying a normal to the pair of tangents passing through the center of gravity; specifying an intersection of the normal and the pair of tangents; and setting a line segment between the pair of intersections as a segment of the lane; A method for detecting a lane on a road surface, comprising: updating an image specifying boundary lines on both sides based on the image. 検出対象とする路面上のレーンの両側の境界線を含む画像情報を入力し該画像情報の濃淡に基づきエッジを検出し、前記両側の境界線を表すエッジを順次出力するエッジ検出手段と、該エッジ検出手段が出力した前記両側の境界線を表すエッジを順次格納し、前記両側の境界線を表す連続した二列のエッジ群を形成するエッジメモリ手段と、少くとも前記二列のエッジ群に基づき3次元平面上で前記両側の境界線を特定する画像処理手段と、前記両側の境界線を特定した前回の画像に基づき前記両側の境界線に対する曲率中心を特定する曲率中心特定手段と、前記エッジメモリ手段が新たに格納し前記両側の境界線を表す連続した二列のエッジ群を形成するエッジ群の中から、前記曲率中心を中心とする同心円弧に沿って夫々所定距離分の一対のエッジ列を抽出するエッジ列抽出手段と、該エッジ列抽出手段が抽出した一対のエッジ列を平行としたときの各々のエッジ列に対する一対の接線を特定する接線特定手段と、前記エッジ列抽出手段が抽出した一対のエッジ列を構成するエッジ群の重心を特定する重心特定手段と、前記重心を通る前記一対の接線に対する法線を特定する法線特定手段と、前記法線と前記一対の接線の交点を特定し、該一対の交点間の線分を前記レーンのセグメントとして設定し、該セグメントを前記画像処理手段に出力するセグメント設定手段とを備え、前記画像処理手段が、前記セグメントに基づき前記両側の境界線を特定した画像を更新するように構成したことを特徴とする路面上のレーン検出装置。Edge detection means for inputting image information including boundary lines on both sides of the lane on the road surface to be detected, detecting edges based on the density of the image information, and sequentially outputting edges representing the boundary lines on both sides; and Edge memory means for sequentially storing edges representing the boundary lines on both sides output by the edge detection means, and forming two consecutive rows of edge groups representing the boundary lines on both sides; and at least the two rows of edge groups Image processing means for specifying the boundary lines on both sides on a three-dimensional plane, curvature center specifying means for specifying the center of curvature for the boundary lines on both sides based on the previous image specifying the boundary lines on both sides, Out of edge groups newly formed by the edge memory means and forming two consecutive rows of edge groups representing the boundary lines on both sides, a predetermined distance is obtained along a concentric arc centered on the center of curvature. Edge sequence extracting means for extracting the edge sequence, tangent specifying means for specifying a pair of tangents to each edge sequence when the pair of edge sequences extracted by the edge sequence extraction means are parallel, and the edge sequence extraction Centroid specifying means for specifying the centroid of the edge group constituting the pair of edge sequences extracted by the means, normal specifying means for specifying a normal to the pair of tangents passing through the centroid, the normal and the pair of pairs A segment setting unit that identifies an intersection of tangent lines, sets a line segment between the pair of intersections as a segment of the lane, and outputs the segment to the image processing unit, and the image processing unit includes the segment An apparatus for detecting a lane on a road surface, which is configured to update an image in which boundary lines on both sides are specified based on the image.
JP21942796A 1996-07-31 1996-07-31 Lane detection method and apparatus on road surface Expired - Fee Related JP3632313B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP21942796A JP3632313B2 (en) 1996-07-31 1996-07-31 Lane detection method and apparatus on road surface
US08/903,729 US5991427A (en) 1996-07-31 1997-07-31 Method and apparatus for detecting a lane on a road

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21942796A JP3632313B2 (en) 1996-07-31 1996-07-31 Lane detection method and apparatus on road surface

Publications (2)

Publication Number Publication Date
JPH1047923A JPH1047923A (en) 1998-02-20
JP3632313B2 true JP3632313B2 (en) 2005-03-23

Family

ID=16735233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21942796A Expired - Fee Related JP3632313B2 (en) 1996-07-31 1996-07-31 Lane detection method and apparatus on road surface

Country Status (1)

Country Link
JP (1) JP3632313B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3102478B2 (en) * 1998-08-17 2000-10-23 日本電気株式会社 Linear mark detection method and device
KR20020053346A (en) 2000-12-27 2002-07-05 이계안 Method for detecting curve for road modeling system
JP5707299B2 (en) * 2011-10-28 2015-04-30 株式会社日立ハイテクノロジーズ Semiconductor pattern measurement method, semiconductor pattern measurement device, semiconductor pattern measurement program, and storage medium storing semiconductor pattern measurement program
US11100344B2 (en) * 2019-11-21 2021-08-24 GM Global Technology Operations LLC Image-based three-dimensional lane detection

Also Published As

Publication number Publication date
JPH1047923A (en) 1998-02-20

Similar Documents

Publication Publication Date Title
US5991427A (en) Method and apparatus for detecting a lane on a road
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
EP1394761B1 (en) Obstacle detection device and method therefor
JP3904988B2 (en) Image processing apparatus and method
JP3937414B2 (en) Planar detection apparatus and detection method
US8406472B2 (en) Method and system for processing image data
JP3993259B2 (en) Image processing device
JP6743171B2 (en) METHOD, COMPUTER DEVICE, DRIVER ASSISTING SYSTEM, AND MOTOR VEHICLE FOR DETECTION OF OBJECTS AROUND A ROAD OF A MOTOR VEHICLE
JP6340850B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JPH10285582A (en) Vehicle outside monitoring device
JP3562751B2 (en) Forward vehicle detection method and device
JP2002352225A (en) Obstacle detector and its method
JPH11213138A (en) Out-of-vehicle monitoring device
JP3961584B2 (en) Lane marking detector
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
JP3632312B2 (en) Lane detection method and apparatus on road surface
JP2002334330A (en) Vehicle recognition device
EP3933684A1 (en) Image based detection of parking space marked by dashed lines
JP3632313B2 (en) Lane detection method and apparatus on road surface
JPH11345392A (en) Device and method for detecting obstacle
JP2006053754A (en) Plane detection apparatus and detection method
JPH07225126A (en) On-road object recognizing device for vehicle
JP4106163B2 (en) Obstacle detection apparatus and method
JPH10143799A (en) Preceding vehicle following device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees