JP2004139338A - Lane marker recognition device - Google Patents

Lane marker recognition device Download PDF

Info

Publication number
JP2004139338A
JP2004139338A JP2002303270A JP2002303270A JP2004139338A JP 2004139338 A JP2004139338 A JP 2004139338A JP 2002303270 A JP2002303270 A JP 2002303270A JP 2002303270 A JP2002303270 A JP 2002303270A JP 2004139338 A JP2004139338 A JP 2004139338A
Authority
JP
Japan
Prior art keywords
lane marker
amount
signal
lane
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002303270A
Other languages
Japanese (ja)
Other versions
JP3997885B2 (en
Inventor
Kazuki Mizoguchi
溝口 和貴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002303270A priority Critical patent/JP3997885B2/en
Publication of JP2004139338A publication Critical patent/JP2004139338A/en
Application granted granted Critical
Publication of JP3997885B2 publication Critical patent/JP3997885B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect a variety of lane markers with a reduced computational complexity. <P>SOLUTION: Based on that an amount of reflection is different when a laser beam irradiates each of a white line, Botts Dots and cat's eye, either one of the following methods is properly selected which are: a method of performing a lane marker recognition processing according to intensity changes of images picked up by a CCD camera 1 on the basis of an amount of reflected/received light of the laser beam emitted from a laser radar 2; and a lane marker recognition method by pattern-matching between a picked-up image and a predetermined template. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、道路上の白線等の区分線であるレーンマーカを認識する装置に関する。
【0002】
【従来の技術】
車載カメラにより車両前方を撮像し、得られた画像の輝度変化に基づいて道路の車線区分を表すレーンマーカを検出する車線認識装置(特許文献1参照)が知られている。また、車載カメラにより撮像した画像とテンプレートとのパターンマッチングにより、レーンマーカを検出する車線認識装置(特許文献2参照)も知られている。
【0003】
【特許文献1】
特開平7−302346号公報
【特許文献2】
特開平6−119593号公報
【0004】
【発明が解決しようとする課題】
しかしながら、前者の車線認識装置では、北米で用いられているBotts Dotsのように、画像に輝度変化がほとんど現れないレーンマーカを検出することができない。また、後者の車線認識装置では、テンプレートをBotts Dotsの形状に合わせることによりBotts Dotsを検出することができるが、白線の形態は実線、破線、二重線と様々な種類があるので、全てのパターンをメモリに記憶しておく必要があり、メモリの容量の増大を招くという問題があった。
【0005】
本発明の目的は、撮像画像の輝度変化に基づいてレーンマーカを認識する方法と、撮像画像とテンプレートとのパターンマッチングによりレーンマーカを認識する方法を適切に使い分けて、様々な種類のレーンマーカを認識するレーンマーカ認識装置を提供することにある。
【0006】
【課題を解決するための手段】
本発明によるレーンマーカ認識装置は、車両前方を撮影する撮像手段と、撮像画像の輝度変化に基づいて、レーンマーカ認識処理を行う第1のレーンマーカ認識手段と、撮像画像と所定のテンプレートとのパターンマッチングにより、レーンマーカ認識処理を行う第2のレーンマーカ認識手段と、車両前方に光信号を送出する信号送出手段と、信号送出手段から送出された光信号の反射信号を受信する信号受信手段と、受信した反射信号の受信量に基づいて、第1および第2のレーンマーカ認識手段のうちのいずれか一方を選択する選択手段とを備えることにより、上記目的を達成する。
【0007】
【発明の効果】
本発明によるレーンマーカ認識装置によれば、信号送出手段から送出された光信号の反射信号の受信量に基づいて、輝度変化による認識方法とパターンマッチングによる認識方法とを適切に選択してレーンマーカ認識処理を行うので、様々な種類のレーンマーカを少ない演算量にて確実に検出することができる。
【0008】
【発明の実施の形態】
図1は、本発明によるレーンマーカ認識装置の一実施の形態の構成を示す図である。一実施の形態におけるレーンマーカ認識装置は、CCDカメラ1と、レーザレーダ2と、レーンマーカ認識処理装置3と、自動操舵制御ユニット4と、操舵アクチュエータ5と、車速センサ6とを備える。CCDカメラ1は、車両の前方に取り付けられて車両前方を撮像し、映像信号をレーンマーカ認識処理装置3に出力する。レーザレーダ2は、車両前方にレーザ光を送出し、反射光を受光することにより車両前方に存在する障害物等を検出する。受信した反射光の受光量情報は、レーンマーカ認識処理装置3に出力する。
【0009】
レーンマーカ認識処理装置3は、図示しないCPU、ROM、RAM等を備え、CCDカメラ1から送られてくる映像信号と、レーザレーダ2から送られてくる反射受光量情報とに基づいて、レーンマーカの種類を判別し、後述するように、最適なレーンマーカ認識処理方法を選択する。また、レーンマーカ認識処理装置3は、認識したレーンマーカに対する自車両の横位置を算出して自動操舵制御ユニット4に出力する。自動操舵制御ユニット4は、レーンマーカ認識処理装置3から送られてくる自車両の横位置情報に基づいて、ハンドル操舵量を算出し、操舵アクチュエータ5を制御する。車速センサ6は、車両の速度に対応する車速信号をレーザレーダ2、レーンマーカ認識処理装置3、自動操舵制御ユニット4に送信する。
【0010】
図2(a)〜(f)は、一般的に使用されているレーンマーカの種類を示した図である。図2(a)には、日本で最も一般的である白線7のみで構成されるレーンマーカである。白線のみで構成されるレーンマーカは、北米や欧州でも一般的であり、世界的に使用されている。図2(b)は、Botts Dots8のみから構成されるレーンマーカである。Botts Dots8は、主に北米で用いられているレーンマーカであり、セラミックスで構成される直径100mm程度の円盤を路面に埋め込んだものである。
【0011】
図2(c)は、キャッツアイ9と呼ばれる反射体のみから構成されるレーンマーカである。キャッツアイ9は、入射光を同じ方向に反射させるという特性を有する。図2(c)のように、キャッツアイ9のみから構成されるレーンマーカは、日本では高速道路以外のカーブ路などで使用されており、北米ではカーブ路だけではなく、直線路でも使用されている。
【0012】
図2(d)は、白線7とキャッツアイ9とから構成されるレーンマーカを示し、図2(e)は、Botts Dots8とキャッツアイ9とから構成されるレーンマーカを示している。図2(f)は、白線7とBotts Dots8とから構成されるレーンマーカを示している。
【0013】
本発明によるレーンマーカ認識装置は、CCDカメラ1を用いて撮像した画像中の輝度変化を利用してレーンマーカを認識する方法と、パターンマッチングによりレーンマーカを認識する方法とを適切に使い分けて用いる。ここで、輝度変化を利用する方法、および、パターンマッチングを用いる方法は、いずれも既に利用されている方法であるので、以下で簡単に説明しておく。初めに、輝度変化を利用する方法について、図3および図4を用いて説明する。
【0014】
図3は、輝度変化を利用してレーンマーカを認識する処理手順を示す一実施の形態のフローチャートである。図4(a)〜(e)は、図3に示すフローチャートによる処理を説明するための図である。以下、図3に示すフローチャートのステップS100から順に説明する。
【0015】
ステップS100では、レーンマーカ認識処理に用いる各パラメータを初期化してステップS101に進む。ステップS101では、CCDカメラ1を用いて、車両前方の画像を取得する。取得した画像を図4(a)に示す。図4(a)に示すように、撮影された画像には通常、路面上の白線7以外にガードレール10等が表示されている。一般に、路面はアスファルトで舗装されていることが多く、この場合の路面は黒色となる。従って、白線と路面との間で輝度差が存在するので、この輝度差を利用して白線を認識する。
【0016】
次のステップS102では、ステップS101で取得した画像から、輝度変化の大きい部分を抽出することにより、輝度変化イメージを作成する。図4(a)に示す画像に基づいて作成した輝度変化イメージを図4(b)に示す。輝度変化イメージを作成すると、ステップS103に進む。ステップS103では、ステップS102で作成した輝度変化イメージに対して、白線が存在すると推測される部分にウインドウを設定する。図4(b)に示す輝度変化イメージに対して、ウインドウ11を設定した図を図4(c)に示す。このウインドウ11は、レーンマーカ認識処理を施す領域を示すものであり、このようにウインドウ11を設定することにより、撮像画像全体に対して処理を施す必要が無くなるので、処理時間の短縮を図ることができる。
【0017】
ウインドウ11を設定するとステップS104に進む。ステップS104では、ステップS103で設定された各ウインドウ11内において、レーンマーカ候補点を1つ抽出する。レーンマーカ候補点12を抽出した図を図4(d)に示す。レーンマーカ候補点12を抽出する方法は様々あるが、ここではウインドウ11の上辺と、輝度が大きく変化するラインとの交差点をレーンマーカ候補点12として抽出している。
【0018】
ステップS104に続くステップS105では、ステップS104で抽出された各ウインドウ11ごとのレーンマーカ候補点12を結ぶことにより、レーンマーカを検出する。図4(d)に示すレーンマーカ候補点12を結ぶことにより認識されるレーンマーカ13を図4(e)に示す。
【0019】
次に、パターンマッチングによりレーンマーカを認識する方法について、図5および図6を用いて説明する。図5は、パターンマッチングによりレーンマーカを認識する処理手順を示す一実施の形態のフローチャートである。図6(a)〜(e)は、図5に示すフローチャートによる処理を説明するための図である。以下、図5に示すフローチャートのステップS200から順に説明する。
【0020】
ステップS200では、レーンマーカ認識処理に用いる各パラメータを初期化してステップS201に進む。ステップS201では、CCDカメラ1を用いて、車両前方の画像を取得する。取得した画像を図6(a)に示す。図6(a)には、複数のBotts Dots8が表示されている。次のステップS202では、ステップS201で取得した画像に対して、パターンマッチング処理を行う領域として、ウインドウを設定する。図6(a)に示す画像に対してウインドウ14を設定した図を図6(b)に示す。ウインドウ14を設定するとステップS203に進む。
【0021】
ステップS203では、ステップS202で設定したウインドウ14の中の領域において、予め用意したBotts Dots8のテンプレートとの相関を求める。ステップS203に続くステップS204では、ステップS203で求めたBotts Dots8のテンプレートとの相関に基づいて、相関の高い領域をBotts Dots8として抽出する。図6(b)に示すウインドウ14内で抽出されたBotts Dots8を図6(c)に示す。Botts Dots8を抽出するとステップS205に進む。
【0022】
ステップS205では、ステップS204で抽出したBotts Dots8からレーンマーカ候補点を抽出する。レーンマーカ候補点15を抽出した図を図6(d)に示す。レーンマーカ候補点15を抽出する方法は様々あるが、ここでは抽出したBotts Dots8において、画面中央側のある1点をレーンマーカ候補点15として抽出する。ステップS205に続くステップS206では、ステップS205で抽出した複数のレーンマーカ候補点15を結ぶことにより、レーンマーカを検出する。図6(d)に示すレーンマーカ候補点15を結ぶことにより認識されるレーンマーカ16を図6(e)に示す。
【0023】
上述したように、Botts Dotsとアスファルト路面との間のコントラストは小さいので、輝度変化を利用した方法によりBotts Dotsを検出するのは、困難である。また、パターンマッチングにより白線を検出する場合には、破線、二重線などの様々なテンプレートを用意する必要がある。この場合、現存する全ての白線パターンのテンプレートを用意しても、新たなパターンの白線が登場する可能性もある。従って、パターンマッチング処理は、白線を検出する方法としてはあまり適していないといえる。
【0024】
従って、白線およびBotts Dotsの双方を精度よく認識するためには、輝度変化を利用する方法とパターンマッチング処理を利用する方法とを適正に選択する必要がある。本発明によるレーンマーカ認識装置は、レーザレーダ2を用いてレーンマーカの種別を判断し、判断したレーンマーカの種類に基づいて、輝度変化を利用する方法とパターンマッチング処理を利用する方法とを適正に選択する。
【0025】
本発明によるレーンマーカ認識装置により行われるレーンマーカ認識処理について説明する前に、図2(a)〜(f)に示すレーンマーカに対して、レーザレーダ2からレーザ光を出射した場合に、レーザ光がレーンマーカで反射した時の受光量について図7(a)〜(f)を用いて説明する。図7(a)〜(f)において、横軸はレーザレーダ2からの距離であり、縦軸は反射したレーザ光の受光量である。
【0026】
図7(a)は、図2(a)に示す白線のみから構成されるレーンマーカに対する結果である。白線はアスファルトよりも光を反射しやすく、また、円盤形状のBotts Dots等と異なり奥行きがあるので、レーザ光が照射されているエリア全体から反射光が得られる。従って、反射受光量は、ある位置でピークになって、その後少しずつ減少していく波形を示す。
【0027】
図7(b)は、図2(b)に示すBotts Dotsのみから構成されるレーンマーカに対する結果である。Botts Dotsからの反射受光量とアスファルトからの反射受光量とはあまり差がないので、図7(b)に示すように、反射受光量にはピークが現れない。
【0028】
図7(c)は、図2(c)に示すキャッツアイのみから構成されるレーンマーカに対する結果である。キャッツアイは、光を入射してきた方向に反射させる特性を有するので、キャッツアイからは非常に強い反射光が得られる。また、図2(c)に示すように、キャッツアイは通常、四角形であり白線のような奥行きがない。従って、反射受光量は、非常に大きいピークを有し、図7(c)に示すように、急峻な波形となる。
【0029】
図7(d)は、図2(d)に示す白線とキャッツアイから構成されるレーンマーカに対する結果である。この場合、白線の反射特性とキャッツアイの反射特性の双方を備えた反射特性を有する。すなわち、反射受光量は非常に大きなピークを有し、その後少しずつ減少していく波形を示す。
【0030】
図7(e)は、図2(e)に示すBotts Dotsとキャッツアイから構成されるレーンマーカに対する結果である。この場合、Botts Dotsの反射特性とキャッツアイの反射特性の双方を備えた反射特性を有する。上述したように、Botts Dotsからの反射受光量は少ないので、反射受光量特性は、キャッツアイのみから構成されるレーンマーカの反射受光量特性(図7(c))と同じような波形を示す。
【0031】
図7(f)は、図2(f)に示す白線とBotts Dotsから構成されるレーンマーカに対する結果である。この場合、白線の反射特性とBotts Dotsの反射特性の双方を備えた反射特性を有するが、Botts Dotsからの反射受光量は少ないので、白線の反射特性が支配的となる。従って、反射受光量特性は、図7(a)に示す白線のみから構成されるレーンマーカに対する反射受光量特性と同じような波形を示す。
【0032】
本実施の形態におけるレーンマーカ認識装置では、レーンマーカに白線が含まれている場合、すなわち、図2(a),(d),(f)に示すレーンマーカの場合には、輝度変化を利用する方法を用いてレーンマーカの認識処理を行う。図7を参照して、以下の▲1▼,▲2▼の場合に、レーンマーカに白線が含まれていると判断する。
▲1▼反射波形のピークが、第1のしきい値Th1と第2のしきい値Th2との間にある場合
▲2▼反射波形のピークが第2のしきい値Th2を越えており、かつ、波形が非対称の場合
【0033】
上記▲1▼に該当するのは、図2(a)と図2(f)に示すレーンマーカの場合である。白線からの反射受光量は、キャッツアイからの反射受光量よりも少ないので、反射受光量のピーク値と2つのしきい値Th1,Th2とに基づいて、図2(a)と図2(f)に示すレーンマーカを検出する。上記▲2▼に該当するのは、図2(d)に示すレーンマーカの場合である。レーンマーカにキャッツアイが含まれている場合には、反射受光量のピーク値が第2のしきい値Th2よりも大きくなる。しかし、白線が含まれている場合には、反射受光量の波形が図7(c),(e)に示す場合と異なり、対称とならないので、図2(d)に示すレーンマーカと図2(c),(e)に示すレーンマーカとを区別することができる。
【0034】
レーザレーダ2で受光される反射光の中には、レーンマーカからの反射光以外に、自車両の周囲の車両や、路側にある看板などからの反射光が含まれている。従って、レーンマーカからの反射光と、レーンマーカ以外からの反射光とを区別する必要がある。この区別の方法を図8(a),(b)を用いて説明する。
【0035】
図8(a)は、レーザレーダ2からレーザ光を出射する様子を車両20の側面から見た図、図8(b)は、レーザレーダ2からレーザ光を出射する様子を車両20の上面から見た図である。レーンマーカからの反射光を得るためには、レーザレーダ2から出射されたレーザ光が路面に到達していることが必要である。図8(a)に示すように、レーザレーダ2は、地上からHsの高さの位置に取り付けられており、出射されるレーザ光の光軸L1は路面と水平であるとする。レーザ光の光軸L1と、上下方向に広がりのあるレーザ光の下端との角度をθvとすると、レーザ光の下端が路面に到達する距離Dgは、次式(1)にて表せる。
Dg=Hs/tanθv  …(1)
【0036】
従って、レーンマーカの種別判定を行うのは、式(1)で算出される距離Dg以遠である必要がある。例えば、Hs=0.35(m)、角度θv=1.5(deg)の場合には、距離Dgは13.4(m)となる。
【0037】
レーザレーダ2は、広い検知エリアを確保するために、車両の左右方向にスキャンを行っている。レーザレーダ2とレーンマーカとの横方向の距離をW、レーザ光軸L1と車体軸L2との水平方向角度をθh、レーザ光の左右方向のビーム幅をθwとすると、レーザ光がレーンマーカに当たる距離の下限値Dn、上限値Dfは、それぞれ次式(2),(3)にて表せる。
Dn=W/tan(θh+θw/2)   …(2)
Df=W/tan(θh−θw/2)   …(3)
【0038】
例えば、W=1.8(m)、角度θh=5(deg)、θw=1(deg)の場合には、Dn=18.7(m)、Df=22.9(m)となる。ここで、レーザ光がレーンマーカに当たる距離の下限値Dnは、式(1)で算出される距離Dgよりも大きくする必要がある。従って、距離Dgを考慮して、レーザレーダ2とレーンマーカとの横方向の距離Wに基づいて、レーザ光のスキャン角度θhを決定して、式(2),(3)より距離Dn,Dfを算出する。この場合、レーザ光のスキャン角度がθhの時に、式(2),(3)から算出される距離Dnから距離Dfまでの間に現れる反射受光量の波形に基づいて、レーンマーカの種別判定を行う。すなわち、距離Dn以下の位置に現れる反射受光量の波形や、距離Df以上の位置に現れる反射受光量の波形は無視することができる。
【0039】
図9は、本実施の形態におけるレーンマーカ認識装置により行われるレーンマーカ認識処理の手順を示すフローチャートである。この処理は、レーンマーカ認識処理装置3により行われる。ステップS300では、レーンマーカ認識処理に用いられるパラメータを初期化して、ステップS301に進む。レーンマーカ認識処理の開始時には、レーザレーダ2とレーンマーカとの横方向の距離Wが分からないので、レーンマーカからの反射光を検出するために必要な距離DnおよびDfを算出することができない。従って、ステップS301では、輝度変化を利用したレーンマーカ認識処理を行う。
【0040】
ステップS301に続くステップS302では、ステップS301で行ったレーンマーカ認識処理により、レーンマーカを認識することができたか否かを判定する。レーンマーカを認識することができたと判定するとステップS306に進み、認識することができなかったと判定するとステップS304に進む。ステップS304では、パターンマッチングによる認識処理を行う。次のステップS305では、ステップS304で行ったパターンマッチングによる認識処理により、レーンマーカを認識することができたか否かを判定する。レーンマーカを認識することができたと判定するとステップS306に進み、認識することができなかったと判定するとステップS300に戻って、再度レーンマーカ認識処理を行う。
【0041】
ステップS306では、ステップS301またはステップS304で行った認識処理結果に基づいて、レーザレーダ2とレーンマーカとの横方向の距離Wを算出する。距離Wを算出するとステップS307に進む。ステップS307では、ステップS306で算出した距離Wに基づいて、レーンマーカからの反射波形を評価するために必要なスキャン角度θh、および、距離Dn,Dfを決定する。スキャン角度θh、距離Dn,Dfを決定すると、ステップS308に進む。
【0042】
ステップS308では、スキャン角度θhの時の反射受光量の波形を取得して、ステップS309に進む。ステップS309では、ステップS308で取得した反射受光量のうち、距離Dn〜Dfの位置にある反射受光量の波形のピーク値が第1のしきい値Th1以下であるか否かを判定する。反射受光量の波形のピーク値が第1のしきい値Th1以下であると判定するとステップS310に進み、第1のしきい値Th1より大きいと判定すると、ステップS311に進む。ステップS311では、反射受光量の波形のピーク値が第2のしきい値Th2以上であるか否かを判定する。反射受光量の波形のピーク値が第2のしきい値Th2以上であると判定するとステップS312に進み、第2のしきい値Th2より小さいと判定すると、ステップS313に進む。
【0043】
ステップS312では、ステップS308で取得した反射受光量の波形が対称であるか否かを判定する。反射受光量の波形が対称であると判定するとステップS310に進み、対称ではないと判定するとステップS313に進む。ステップS313では、上記▲1▼の条件の場合、すなわち、反射波形のピーク値が、第1のしきい値Th1と第2のしきい値Th2との間にある場合、または、条件▲2▼の場合、すなわち、反射波形のピーク値が第2のしきい値Th2を越えており、かつ、波形が非対称の場合であるので、輝度変化を利用したレーンマーカ認識処理を行う。レーンマーカ認識処理を行うとステップS314に進む。
【0044】
一方、ステップS310では、パターンマッチングによるレーンマーカ認識処理を行う。レーンマーカ認識処理を行うとステップS314に進む。ステップS314では、ステップS310またはステップS313で行ったレーンマーカ認識処理により、レーンマーカを認識したか否かを判定する。レーンマーカを認識したと判定するとステップS306に戻って、上述したステップS306以降の処理を行い、レーンマーカを認識していないと判定するとステップS300に戻る。
【0045】
本実施の形態におけるレーンマーカ認識装置により行われるレーンマーカ認識処理の内容をまとめておく。最初に輝度変化を利用したレーンマーカ認識処理、または、パターンマッチングによるレーンマーカ認識処理を行い、レーンマーカを認識すると、レーザレーダ2とレーンマーカとの横方向の距離Wを算出して、スキャン角度θh、距離Dn,Dfを決定する(ステップS300〜S307)。その後、決定したスキャン角度θhの時の反射受光量の波形を取得する。距離Dn〜Dfの位置にある反射受光量の波形のピーク値が第1のしきい値Th1以下であり、かつ、第2のしきい値Th2より小さい場合、または、反射受光量の波形のピーク値が第2のしきい値Th2以上であり、かつ、反射受光量の波形が非対称である場合には、輝度変化を利用したレーンマーカ認識処理を行い、それ以外の場合にはパターンマッチングによるレーンマーカ認識処理を行う(ステップS309〜S313)。
【0046】
本実施の形態におけるレーンマーカ認識装置によれば、レーザレーダ2から出射したレーザ光の反射受光量に基づいて、撮像画像の輝度変化によりレーンマーカ認識処理を行う方法と、パターンマッチングによりレーンマーカ認識処理を行う方法とを適切に選択して、レーンマーカ認識処理を行うので、様々な種類のレーンマーカを確実に検出することができる。この場合、輝度変化による認識処理方法とパターンマッチングによる認識処理方法の両方を用いる方法、例えば、画像の輝度変化に基づいてレーンマーカ認識処理を行い、レーンマーカを検出できなかった場合に、パターンマッチングによるレーンマーカ認識処理を行う方法も考えられる。しかし、このような方法では、レーンマーカ認識処理の処理演算量が増加し、レーンマーカの検出速度が低下する。これに対して、本実施の形態におけるレーンマーカ認識装置では、2つのレーンマーカ認識処理方法のうちの一方を適切に選択して認識処理を行うので、少ない演算量で確実にレーンマーカを検出することができる。
【0047】
2つのレーンマーカ認識処理方法の選択に際し、レーザ光の反射受光量が第1のしきい値Th1以下の場合には、パターンマッチングによるレーンマーカ認識処理を選択するので、Botts Dotsのように反射率の低いレーンマーカを確実に検出することができる。また、レーザ光の反射受光量が第1のしきい値Th1より多く、第2のしきい値Th2未満の場合には、輝度変化によるレーンマーカ認識処理を選択するので、白線を含むレーンマーカを確実に検出することができる。
【0048】
また、レーザ光の反射受光量が第2のしきい値Th2以上であり、かつ、反射受光量の波形が所定のパターン、すなわち、非対称である場合には、輝度変化によるレーンマーカ認識処理を選択するので、キャッツアイと白線とを含んだレーンマーカを確実に検出することができる。この場合、レーザ光の反射受光量が第2のしきい値Th2以上であり、かつ、反射受光量の波形が対称の場合には、パターンマッチングによるレーンマーカ認識処理を選択するので、白線より反射率の高いキャッツアイのみからなるレーンマーカや、キャッツアイとBotts Dotsからなるレーンマーカを確実に検出することができる。
【0049】
本実施の形態におけるレーンマーカ認識装置では、輝度変化によるレーンマーカ認識方法、および、パターンマッチングによる認識方法の少なくとも一方の方法を用いてレーンマーカを検出し、検出したレーンマーカとレーザレーダ2との距離Wを算出して、距離Wに基づいてスキャン角度θhを求めてレーザ光を出射するので、レーンマーカに向けて確実にレーザ光を出射することができる。また、算出した距離Wに基づいて、レーザ光のエッジとレーンマーカとが交わる距離Dn,Dfを算出し、距離DnからDfまでの距離範囲からの反射受光量に基づいて、2つのレーンマーカ認識方法を選択するので、レーンマーカ以外の物体からの反射受光量に基づいてレーンマーカ認識方法を選択するという誤選択を防ぐことができる。
【0050】
本発明は、上述した一実施の形態に限定されることはない。例えば、上述した一実施の形態では、レーンマーカを構成する要素として、白線、Botts Dots、キャッツアイの3種類を例に挙げたが、これら以外の物によりレーンマーカが構成されている場合にも本実施の形態におけるレーンマーカ認識装置を用いることができる。この場合には、図7(a)〜(f)に示すように、予め反射受光量の特性を把握しておき、その特性に応じて、輝度変化による方法またはパターンマッチングによる方法を適切に選択するようにすればよい。
【0051】
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、CCDカメラ1が撮影手段を、レーンマーカ認識処理装置3が第1のレーンマーカ認識手段、第2のレーンマーカ認識手段、および、選択手段を、レーザレーダ2が信号送出手段および信号受信手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
【図面の簡単な説明】
【図1】本発明によるレーンマーカ認識装置の一実施の形態の構成を示す図
【図2】図2(a)〜(f)は、様々なレーンマーカの種類を示す図
【図3】輝度変化を利用したレーンマーカ認識処理の処理手順を示すフローチャート
【図4】図4(a)〜(e)は、輝度変化を利用したレーンマーカ認識処理について説明するための図
【図5】パターンマッチングによるレーンマーカ認識処理の処理手順を示すフローチャート
【図6】図6(a)〜(e)は、パターンマッチングによるレーンマーカ認識処理について説明するための図
【図7】図7(a)〜(f)は、図2(a)〜(f)に示すレーンマーカにレーザ光を照射した時の反射受光量を示す図
【図8】図8(a)は、レーザレーダからレーザ光を出射する様子を車両側面から見た図、図8(b)は、車両上面から見た図
【図9】本実施の形態におけるレーンマーカ認識装置により行われるレーンマーカ認識処理の手順を示すフローチャート
【符号の説明】
1…CCDカメラ、2…レーザレーダ、3…レーンマーカ認識処理装置、4…自動操舵制御ユニット、5…操舵アクチュエータ、6…車速センサ、7…白線、8…Botts Dots、9…キャッツアイ、10…ガードレール、11,14…ウインドウ、12,15…レーンマーカ候補点、13,16…検出レーンマーカ、20…車両、L1…レーザ光の光軸、L2…車軸
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for recognizing a lane marker which is a dividing line such as a white line on a road.
[0002]
[Prior art]
2. Description of the Related Art There is known a lane recognition device that captures an image of the front of a vehicle using an on-vehicle camera and detects a lane marker indicating a lane segment of a road based on a change in luminance of the obtained image (see Patent Document 1). There is also known a lane recognition device that detects a lane marker by performing pattern matching between an image captured by a vehicle-mounted camera and a template (see Patent Document 2).
[0003]
[Patent Document 1]
JP-A-7-302346
[Patent Document 2]
JP-A-6-119593
[0004]
[Problems to be solved by the invention]
However, the former lane recognition device cannot detect a lane marker that hardly shows a change in luminance in an image, such as Boots Dots used in North America. Also, in the latter lane recognition device, it is possible to detect the Bottom Dots by matching the template with the Bottom Dots shape. However, the white line includes various types such as a solid line, a dashed line, and a double line. It is necessary to store the pattern in the memory, and there is a problem that the capacity of the memory is increased.
[0005]
An object of the present invention is to appropriately use a method of recognizing a lane marker based on a change in brightness of a captured image and a method of recognizing a lane marker by pattern matching between a captured image and a template to appropriately recognize lane markers of various types. A recognition device is provided.
[0006]
[Means for Solving the Problems]
The lane marker recognizing device according to the present invention includes: an image capturing unit that captures an image in front of a vehicle; a first lane marker recognizing unit that performs a lane marker recognizing process based on a luminance change of a captured image; and a pattern matching between the captured image and a predetermined template. Second lane marker recognizing means for performing lane marker recognizing processing, signal transmitting means for transmitting an optical signal forward of the vehicle, signal receiving means for receiving a reflected signal of the optical signal transmitted from the signal transmitting means, The above object is achieved by providing a selecting means for selecting one of the first and second lane marker recognizing means based on a signal reception amount.
[0007]
【The invention's effect】
According to the lane marker recognition device of the present invention, the lane marker recognition processing is performed by appropriately selecting a recognition method based on a luminance change and a recognition method based on pattern matching based on the reception amount of the reflected signal of the optical signal transmitted from the signal transmission unit. Is performed, various types of lane markers can be reliably detected with a small amount of calculation.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram showing a configuration of an embodiment of a lane marker recognition device according to the present invention. The lane marker recognition device according to one embodiment includes a CCD camera 1, a laser radar 2, a lane marker recognition processing device 3, an automatic steering control unit 4, a steering actuator 5, and a vehicle speed sensor 6. The CCD camera 1 is attached to the front of the vehicle, captures an image of the front of the vehicle, and outputs a video signal to the lane marker recognition processing device 3. The laser radar 2 transmits a laser beam to the front of the vehicle, and detects an obstacle or the like existing in front of the vehicle by receiving the reflected light. The received light amount information of the reflected light is output to the lane marker recognition processing device 3.
[0009]
The lane marker recognition processing device 3 includes a CPU, a ROM, a RAM (not shown), and the like. The lane marker type is determined based on the video signal transmitted from the CCD camera 1 and the reflected light reception amount information transmitted from the laser radar 2. And an optimum lane marker recognition processing method is selected as described later. The lane marker recognition processing device 3 calculates the lateral position of the own vehicle with respect to the recognized lane marker and outputs the calculated position to the automatic steering control unit 4. The automatic steering control unit 4 calculates a steering wheel steering amount based on the lateral position information of the own vehicle sent from the lane marker recognition processing device 3 and controls the steering actuator 5. The vehicle speed sensor 6 transmits a vehicle speed signal corresponding to the speed of the vehicle to the laser radar 2, the lane marker recognition processing device 3, and the automatic steering control unit 4.
[0010]
FIGS. 2A to 2F are diagrams showing types of lane markers generally used. FIG. 2A shows a lane marker composed of only the white line 7, which is the most common in Japan. Lane markers composed only of white lines are common in North America and Europe and are used worldwide. FIG. 2B shows a lane marker composed of only the bottoms dots 8. Botts Dots 8 is a lane marker mainly used in North America, and has a disc made of ceramics having a diameter of about 100 mm embedded in a road surface.
[0011]
FIG. 2C shows a lane marker including only a reflector called a cat's eye 9. The cat's eye 9 has the property of reflecting incident light in the same direction. As shown in FIG. 2C, a lane marker including only the cat's eye 9 is used in Japan on a curved road other than an expressway, and in North America is used not only on a curved road but also on a straight road. .
[0012]
FIG. 2D shows a lane marker composed of the white line 7 and the cat's eye 9, and FIG. 2E shows a lane marker composed of the Botts Dots 8 and the cat's eye 9. FIG. 2F shows a lane marker composed of a white line 7 and Botts Dots 8.
[0013]
The lane marker recognition device according to the present invention appropriately uses a method of recognizing a lane marker using a change in luminance in an image captured using the CCD camera 1 and a method of recognizing a lane marker by pattern matching. Here, the method using the luminance change and the method using the pattern matching are already used methods, and will be briefly described below. First, a method using a luminance change will be described with reference to FIGS.
[0014]
FIG. 3 is a flowchart of an embodiment showing a processing procedure for recognizing a lane marker using a luminance change. FIGS. 4A to 4E are views for explaining the processing according to the flowchart shown in FIG. Hereinafter, description will be made in order from step S100 of the flowchart shown in FIG.
[0015]
In step S100, each parameter used for the lane marker recognition processing is initialized, and the process proceeds to step S101. In step S101, an image in front of the vehicle is acquired using the CCD camera 1. The acquired image is shown in FIG. As shown in FIG. 4A, the captured image usually displays a guardrail 10 and the like in addition to the white line 7 on the road surface. Generally, the road surface is often paved with asphalt, and in this case, the road surface is black. Therefore, since there is a luminance difference between the white line and the road surface, the white line is recognized using the luminance difference.
[0016]
In the next step S102, a luminance change image is created by extracting a portion having a large luminance change from the image acquired in step S101. FIG. 4B shows a luminance change image created based on the image shown in FIG. After creating the luminance change image, the process proceeds to step S103. In step S103, a window is set in a portion where it is assumed that a white line exists in the brightness change image created in step S102. FIG. 4C shows a diagram in which the window 11 is set for the luminance change image shown in FIG. The window 11 indicates an area where the lane marker recognition processing is performed. By setting the window 11 in this manner, it is not necessary to perform the processing on the entire captured image, and thus the processing time can be reduced. it can.
[0017]
After setting the window 11, the process proceeds to step S104. In step S104, one lane marker candidate point is extracted from each window 11 set in step S103. FIG. 4D shows a diagram in which the lane marker candidate points 12 are extracted. There are various methods for extracting the lane marker candidate points 12. Here, an intersection between the upper side of the window 11 and the line whose luminance changes greatly is extracted as the lane marker candidate points 12.
[0018]
In step S105 subsequent to step S104, lane markers are detected by connecting the lane marker candidate points 12 for each window 11 extracted in step S104. FIG. 4E shows a lane marker 13 recognized by connecting the lane marker candidate points 12 shown in FIG.
[0019]
Next, a method of recognizing lane markers by pattern matching will be described with reference to FIGS. FIG. 5 is a flowchart of an embodiment showing a processing procedure for recognizing a lane marker by pattern matching. FIGS. 6A to 6E are views for explaining the processing according to the flowchart shown in FIG. Hereinafter, description will be made in order from step S200 of the flowchart shown in FIG.
[0020]
In step S200, each parameter used for the lane marker recognition processing is initialized, and the process proceeds to step S201. In step S201, an image in front of the vehicle is acquired using the CCD camera 1. The acquired image is shown in FIG. FIG. 6A shows a plurality of Botts Dots 8. In the next step S202, a window is set as an area where pattern matching processing is performed on the image acquired in step S201. FIG. 6B shows a diagram in which the window 14 is set for the image shown in FIG. After setting the window 14, the process proceeds to step S203.
[0021]
In step S203, the correlation between the area in the window 14 set in step S202 and the previously prepared Boots Dots 8 template is determined. In step S204 subsequent to step S203, an area having a high correlation is extracted as Boots Dots 8 based on the correlation with the Bots Dots 8 template obtained in step S203. FIG. 6C shows the Bottom Dots 8 extracted in the window 14 shown in FIG. 6B. When the Bottom Dots 8 is extracted, the process proceeds to step S205.
[0022]
In step S205, a lane marker candidate point is extracted from the Bottom Dots 8 extracted in step S204. FIG. 6D shows the extracted lane marker candidate points 15. There are various methods for extracting the lane marker candidate points 15, but in this case, a certain point on the center of the screen is extracted as the lane marker candidate points 15 in the extracted Bottom Dots 8. In step S206 following step S205, a lane marker is detected by connecting the plurality of lane marker candidate points 15 extracted in step S205. FIG. 6E shows a lane marker 16 recognized by connecting the lane marker candidate points 15 shown in FIG. 6D.
[0023]
As described above, since the contrast between the Bottom Dots and the asphalt road surface is small, it is difficult to detect the Bottom Dots by a method using a luminance change. When detecting a white line by pattern matching, it is necessary to prepare various templates such as a broken line and a double line. In this case, even if all existing white line pattern templates are prepared, there is a possibility that a new pattern of white lines will appear. Therefore, it can be said that the pattern matching process is not very suitable as a method for detecting a white line.
[0024]
Therefore, in order to accurately recognize both the white line and the Bottom Dots, it is necessary to appropriately select a method using the luminance change and a method using the pattern matching processing. The lane marker recognition device according to the present invention determines the type of the lane marker using the laser radar 2, and appropriately selects a method using a luminance change and a method using a pattern matching process based on the determined type of the lane marker. .
[0025]
Before describing the lane marker recognition processing performed by the lane marker recognition device according to the present invention, when laser light is emitted from the laser radar 2 with respect to the lane markers shown in FIGS. The amount of light received when the light is reflected by will be described with reference to FIGS. 7A to 7F, the horizontal axis represents the distance from the laser radar 2, and the vertical axis represents the amount of reflected laser light received.
[0026]
FIG. 7A shows the result for the lane marker composed of only the white line shown in FIG. The white line reflects light more easily than asphalt, and has a depth unlike the disc-shaped Bottom Dots, so that reflected light can be obtained from the entire area irradiated with the laser light. Accordingly, the reflected light reception amount shows a waveform that peaks at a certain position and then gradually decreases.
[0027]
FIG. 7B shows the result for the lane marker composed of only the dots Dots shown in FIG. 2B. Since there is not much difference between the amount of reflected light received from the Bottom Dots and the amount of reflected light received from the asphalt, no peak appears in the amount of reflected light received as shown in FIG.
[0028]
FIG. 7C shows the result for the lane marker composed only of the cat's eye shown in FIG. 2C. Since the cat's eye has the property of reflecting light in the direction of incidence, very strong reflected light can be obtained from the cat's eye. Also, as shown in FIG. 2 (c), the cat's eye is usually rectangular and has no depth like a white line. Therefore, the amount of reflected light received has a very large peak, and has a steep waveform as shown in FIG.
[0029]
FIG. 7D shows the result for the lane marker composed of the white line and the cat's eye shown in FIG. 2D. In this case, it has reflection characteristics having both white line reflection characteristics and cat's eye reflection characteristics. That is, the reflected and received light amount has a very large peak, and then shows a waveform that gradually decreases.
[0030]
FIG. 7E shows the result for the lane marker composed of the bottoms dots and the cat's eye shown in FIG. 2E. In this case, it has reflection characteristics having both the reflection characteristics of Bottom Dots and the reflection characteristics of cat's eye. As described above, since the amount of reflected light received from the Bottom Dots is small, the characteristic of the amount of reflected light received is similar to the characteristic of the amount of reflected light received by the lane marker composed of only the cat's eye (FIG. 7C).
[0031]
FIG. 7F shows the result for the lane marker composed of the white line and the Bottom Dots shown in FIG. 2F. In this case, there is a reflection characteristic having both a reflection characteristic of the white line and a reflection characteristic of the Botts Dots, but the reflection characteristic of the white line becomes dominant since the amount of reflected light received from the Botts Dots is small. Therefore, the reflected light receiving amount characteristic shows a waveform similar to the reflected light receiving amount characteristic for the lane marker composed only of the white line shown in FIG.
[0032]
In the lane marker recognition device according to the present embodiment, when the lane marker includes a white line, that is, in the case of the lane markers shown in FIGS. To perform lane marker recognition processing. Referring to FIG. 7, in the following cases (1) and (2), it is determined that the lane marker includes a white line.
(1) When the peak of the reflected waveform is between the first threshold value Th1 and the second threshold value Th2
(2) When the peak of the reflected waveform exceeds the second threshold value Th2 and the waveform is asymmetric
[0033]
The case (1) corresponds to the case of the lane markers shown in FIGS. 2 (a) and 2 (f). Since the amount of reflected light received from the white line is smaller than the amount of reflected light received from the cat's eye, FIGS. 2A and 2F are based on the peak value of the amount of reflected light received and the two thresholds Th1 and Th2. ) Are detected. The case (2) corresponds to the case of the lane marker shown in FIG. When the cat's eye is included in the lane marker, the peak value of the reflected light reception amount becomes larger than the second threshold value Th2. However, when the white line is included, the waveform of the reflected light reception amount is not symmetric unlike the case shown in FIGS. 7C and 7E, so that the lane marker shown in FIG. c) and lane markers shown in (e) can be distinguished.
[0034]
The reflected light received by the laser radar 2 includes, in addition to the reflected light from the lane marker, reflected light from vehicles around the own vehicle, a signboard on the roadside, and the like. Therefore, it is necessary to distinguish the reflected light from the lane marker from the reflected light from other than the lane marker. This distinguishing method will be described with reference to FIGS.
[0035]
FIG. 8A is a diagram showing how the laser beam is emitted from the laser radar 2 when viewed from the side of the vehicle 20, and FIG. 8B is a diagram showing how the laser beam is emitted from the laser radar 2 from the top surface of the vehicle 20. FIG. In order to obtain the reflected light from the lane marker, the laser light emitted from the laser radar 2 needs to reach the road surface. As shown in FIG. 8A, it is assumed that the laser radar 2 is mounted at a height of Hs from the ground, and the optical axis L1 of the emitted laser light is horizontal to the road surface. Assuming that the angle between the optical axis L1 of the laser light and the lower end of the laser light spreading in the vertical direction is θv, the distance Dg at which the lower end of the laser light reaches the road surface can be expressed by the following equation (1).
Dg = Hs / tan θv (1)
[0036]
Therefore, the type determination of the lane marker needs to be longer than the distance Dg calculated by the equation (1). For example, when Hs = 0.35 (m) and the angle θv = 1.5 (deg), the distance Dg is 13.4 (m).
[0037]
The laser radar 2 scans in the left-right direction of the vehicle to secure a wide detection area. If the horizontal distance between the laser radar 2 and the lane marker is W, the horizontal angle between the laser optical axis L1 and the vehicle body axis L2 is θh, and the horizontal beam width of the laser light is θw, the distance at which the laser light hits the lane marker is The lower limit Dn and the upper limit Df can be expressed by the following equations (2) and (3), respectively.
Dn = W / tan (θh + θw / 2) (2)
Df = W / tan (θh−θw / 2) (3)
[0038]
For example, when W = 1.8 (m), the angle θh = 5 (deg), and θw = 1 (deg), Dn = 18.7 (m) and Df = 22.9 (m). Here, the lower limit value Dn of the distance at which the laser light hits the lane marker needs to be larger than the distance Dg calculated by Expression (1). Therefore, taking into account the distance Dg, the scan angle θh of the laser beam is determined based on the lateral distance W between the laser radar 2 and the lane marker, and the distances Dn and Df are calculated from the equations (2) and (3). calculate. In this case, when the scan angle of the laser beam is θh, the type of the lane marker is determined based on the waveform of the reflected light reception amount that appears between the distance Dn and the distance Df calculated from Expressions (2) and (3). . That is, the waveform of the amount of reflected light received at a position less than the distance Dn and the waveform of the amount of reflected light received at a position greater than the distance Df can be ignored.
[0039]
FIG. 9 is a flowchart illustrating a procedure of a lane marker recognition process performed by the lane marker recognition device according to the present embodiment. This processing is performed by the lane marker recognition processing device 3. In step S300, parameters used for the lane marker recognition processing are initialized, and the process proceeds to step S301. At the start of the lane marker recognition process, the distance Wn between the laser radar 2 and the lane marker in the horizontal direction is not known, so that the distances Dn and Df required to detect the reflected light from the lane marker cannot be calculated. Therefore, in step S301, a lane marker recognition process using a change in luminance is performed.
[0040]
In step S302 subsequent to step S301, it is determined whether the lane marker has been successfully recognized by the lane marker recognition process performed in step S301. If it is determined that the lane marker has been recognized, the process proceeds to step S306. If it is determined that the lane marker has not been recognized, the process proceeds to step S304. In step S304, recognition processing by pattern matching is performed. In the next step S305, it is determined whether or not the lane marker has been successfully recognized by the recognition processing based on the pattern matching performed in step S304. If it is determined that the lane marker has been recognized, the process proceeds to step S306. If it is determined that the lane marker has not been recognized, the process returns to step S300 to perform the lane marker recognition process again.
[0041]
In step S306, a horizontal distance W between the laser radar 2 and the lane marker is calculated based on the result of the recognition processing performed in step S301 or S304. After calculating the distance W, the process proceeds to step S307. In step S307, based on the distance W calculated in step S306, the scan angle θh and the distances Dn and Df required to evaluate the reflected waveform from the lane marker are determined. After determining the scan angle θh and the distances Dn and Df, the process proceeds to step S308.
[0042]
In step S308, the waveform of the amount of reflected light received at the scan angle θh is obtained, and the flow advances to step S309. In step S309, it is determined whether the peak value of the waveform of the reflected light reception amount at the position of the distance Dn to Df is equal to or less than the first threshold value Th1 among the reflected light reception amounts acquired in step S308. If it is determined that the peak value of the waveform of the reflected light reception amount is equal to or less than the first threshold value Th1, the process proceeds to step S310. If it is determined that the peak value is greater than the first threshold value Th1, the process proceeds to step S311. In step S311, it is determined whether the peak value of the waveform of the reflected light reception amount is equal to or greater than the second threshold Th2. If it is determined that the peak value of the reflected light reception amount waveform is equal to or greater than the second threshold value Th2, the process proceeds to step S312. If it is determined that the peak value is smaller than the second threshold value Th2, the process proceeds to step S313.
[0043]
In step S312, it is determined whether the waveform of the reflected light reception amount acquired in step S308 is symmetric. If it is determined that the waveform of the reflected light reception amount is symmetric, the process proceeds to step S310; otherwise, the process proceeds to step S313. In step S313, in the case of the above condition (1), that is, when the peak value of the reflected waveform is between the first threshold value Th1 and the second threshold value Th2, or in the condition (2) In other words, since the peak value of the reflected waveform exceeds the second threshold value Th2 and the waveform is asymmetric, the lane marker recognition process using the luminance change is performed. After performing the lane marker recognition processing, the process proceeds to step S314.
[0044]
On the other hand, in step S310, lane marker recognition processing by pattern matching is performed. After performing the lane marker recognition processing, the process proceeds to step S314. In step S314, it is determined whether or not a lane marker has been recognized by the lane marker recognition process performed in step S310 or step S313. If it is determined that the lane marker has been recognized, the process returns to step S306, and the processing from step S306 described above is performed. If it is determined that the lane marker has not been recognized, the process returns to step S300.
[0045]
The contents of the lane marker recognition process performed by the lane marker recognition device according to the present embodiment will be summarized. First, a lane marker recognition process using a luminance change or a lane marker recognition process by pattern matching is performed. When the lane marker is recognized, a horizontal distance W between the laser radar 2 and the lane marker is calculated, and the scan angle θh and the distance Dn are calculated. , Df (Steps S300 to S307). Thereafter, a waveform of the amount of reflected light received at the determined scan angle θh is obtained. When the peak value of the waveform of the reflected light reception amount at the position of the distance Dn to Df is equal to or less than the first threshold value Th1 and smaller than the second threshold value Th2, or the peak of the waveform of the reflected light reception amount If the value is equal to or greater than the second threshold value Th2 and the waveform of the reflected light reception amount is asymmetric, the lane marker recognition process using the luminance change is performed; otherwise, the lane marker recognition by pattern matching is performed. The processing is performed (steps S309 to S313).
[0046]
According to the lane marker recognition apparatus of the present embodiment, a method of performing lane marker recognition processing based on a change in luminance of a captured image based on the amount of reflected light of laser light emitted from laser radar 2 and a method of performing lane marker recognition processing by pattern matching Since the lane marker recognition process is performed by appropriately selecting the method and the method, various types of lane markers can be reliably detected. In this case, a method using both the recognition processing method based on the luminance change and the recognition processing method based on the pattern matching is used. For example, when the lane marker recognition processing is performed based on the luminance change of the image and the lane marker cannot be detected, the lane marker based on the pattern matching is used. A method of performing a recognition process is also conceivable. However, in such a method, the amount of processing calculation of the lane marker recognition processing increases, and the detection speed of the lane marker decreases. On the other hand, in the lane marker recognition device according to the present embodiment, one of the two lane marker recognition processing methods is appropriately selected to perform the recognition process, so that the lane marker can be reliably detected with a small amount of calculation. .
[0047]
When the two lane marker recognition processing methods are selected, if the amount of reflected and received laser light is equal to or less than the first threshold Th1, lane marker recognition processing by pattern matching is selected, so that the reflectance is low, such as Bottom Dots. Lane markers can be reliably detected. Further, when the amount of reflected light received by the laser beam is larger than the first threshold value Th1 and smaller than the second threshold value Th2, the lane marker recognition process based on the luminance change is selected. Can be detected.
[0048]
When the amount of reflected light received by the laser beam is equal to or greater than the second threshold value Th2 and the waveform of the amount of reflected light received is a predetermined pattern, that is, asymmetric, a lane marker recognition process based on a luminance change is selected. Therefore, the lane marker including the cat's eye and the white line can be reliably detected. In this case, when the amount of reflected light received by the laser beam is equal to or greater than the second threshold value Th2 and the waveform of the amount of reflected light received is symmetric, the lane marker recognition processing by pattern matching is selected. A lane marker consisting only of a cat's eye having a high cat's eye and a lane marker consisting of a cat's eye and Botts Dots can be reliably detected.
[0049]
In the lane marker recognition device according to the present embodiment, a lane marker is detected using at least one of a lane marker recognition method based on a luminance change and a recognition method based on pattern matching, and a distance W between the detected lane marker and the laser radar 2 is calculated. Then, since the scan angle θh is obtained based on the distance W and the laser light is emitted, the laser light can be reliably emitted toward the lane marker. Further, based on the calculated distance W, distances Dn and Df at which the edge of the laser beam intersects with the lane marker are calculated. Since selection is made, it is possible to prevent erroneous selection of selecting a lane marker recognition method based on the amount of reflected light received from an object other than the lane marker.
[0050]
The present invention is not limited to the above embodiment. For example, in the above-described embodiment, three types of elements constituting a lane marker, that is, a white line, Bottom Dots, and a cat's eye have been described as an example. Can be used. In this case, as shown in FIGS. 7A to 7F, the characteristics of the amount of reflected light received are grasped in advance, and a method based on luminance change or a method based on pattern matching is appropriately selected according to the characteristics. What should I do?
[0051]
The correspondence between the components of the claims and the components of the embodiment is as follows. That is, the CCD camera 1 constitutes the photographing means, the lane marker recognition processing device 3 constitutes the first lane marker recognizing means, the second lane marker recognizing means and the selecting means, and the laser radar 2 constitutes the signal sending means and the signal receiving means. I do. Note that each component is not limited to the above configuration as long as the characteristic functions of the present invention are not impaired.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an embodiment of a lane marker recognition device according to the present invention.
FIGS. 2A to 2F are diagrams showing various types of lane markers.
FIG. 3 is a flowchart showing a processing procedure of a lane marker recognition process using a luminance change.
FIGS. 4A to 4E are diagrams for explaining a lane marker recognition process using a luminance change.
FIG. 5 is a flowchart showing a processing procedure of lane marker recognition processing by pattern matching.
FIGS. 6A to 6E are diagrams for explaining lane marker recognition processing by pattern matching; FIGS.
FIGS. 7 (a) to 7 (f) are diagrams showing the amount of reflected light received when the lane marker shown in FIGS. 2 (a) to 2 (f) is irradiated with laser light.
FIG. 8A is a diagram of a state in which laser light is emitted from a laser radar viewed from a side of a vehicle, and FIG.
FIG. 9 is a flowchart illustrating a procedure of a lane marker recognition process performed by the lane marker recognition device according to the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... CCD camera, 2 ... Laser radar, 3 ... Lane marker recognition processing apparatus, 4 ... Automatic steering control unit, 5 ... Steering actuator, 6 ... Vehicle speed sensor, 7 ... White line, 8 ... Botts Dots, 9 ... Cat's eye, 10 ... Guard rail, 11, 14 window, 12, 15 lane marker candidate point, 13, 16 detection lane marker, 20 vehicle, L1 optical axis of laser beam, L2 axle

Claims (6)

車両に搭載されて車両前方を撮影する撮像手段と、
前記撮像手段により撮像された画像の輝度変化に基づいて、レーンマーカ認識処理を行う第1のレーンマーカ認識手段と、
前記撮像手段により撮像された画像と所定のテンプレートとのパターンマッチングにより、レーンマーカ認識処理を行う第2のレーンマーカ認識手段と、
車両前方に光信号を送出する信号送出手段と、
前記信号送出手段から送出された光信号の反射信号を受信する信号受信手段と、
前記信号受信手段により受信した反射信号の受信量に基づいて、前記第1のレーンマーカ認識手段および前記第2のレーンマーカ認識手段のうちのいずれか一方を選択する選択手段とを備えることを特徴とするレーンマーカ認識装置。
Imaging means mounted on the vehicle to photograph the front of the vehicle;
A first lane marker recognizing unit that performs a lane marker recognizing process based on a luminance change of an image captured by the image capturing unit;
A second lane marker recognizing unit that performs a lane marker recognizing process by pattern matching between the image captured by the image capturing unit and a predetermined template;
Signal transmission means for transmitting an optical signal forward of the vehicle;
Signal receiving means for receiving a reflected signal of the optical signal transmitted from the signal transmitting means,
A selecting section for selecting one of the first lane marker recognizing section and the second lane marker recognizing section based on a reception amount of the reflected signal received by the signal receiving section. Lane marker recognition device.
請求項1に記載のレーンマーカ認識装置において、
前記選択手段は、前記反射信号の受信量が第1の受信量以下の場合には、前記第2のレーンマーカ認識手段を選択することを特徴とするレーンマーカ認識装置。
The lane marker recognition device according to claim 1,
The lane marker recognizing device, wherein the selecting means selects the second lane marker recognizing means when the amount of the reflected signal received is equal to or less than a first received amount.
請求項1または2に記載のレーンマーカ認識装置において、
前記選択手段は、前記反射信号の受信量が第1の受信量より多く、かつ、第2の受信量未満の場合には、前記第1のレーンマーカ認識手段を選択することを特徴とするレーンマーカ認識装置。
The lane marker recognition device according to claim 1 or 2,
The lane marker recognizing device according to claim 1, wherein the selecting means selects the first lane marker recognizing means when the amount of the reflected signal received is greater than a first received amount and less than a second received amount. apparatus.
請求項1〜3のいずれかに記載のレーンマーカ認識装置において、
前記選択手段は、前記反射信号の受信量が第2の受信量以上であり、かつ、前記反射信号の受信量のパターンが所定のパターンである場合には、前記第1のレーンマーカ認識手段を選択し、前記反射信号の受信量が第2の受信量以上であり、かつ、前記反射信号の受信量のパターンが前記所定のパターンでない場合には、前記第2のレーンマーカ認識手段を選択することを特徴とするレーンマーカ認識装置。
The lane marker recognition device according to any one of claims 1 to 3,
The selecting means selects the first lane marker recognizing means when the reception amount of the reflection signal is equal to or more than a second reception amount and the pattern of the reception amount of the reflection signal is a predetermined pattern. If the received signal amount of the reflected signal is equal to or more than a second received amount and the pattern of the received signal amount of the reflected signal is not the predetermined pattern, it is preferable that the second lane marker recognizing means is selected. Characteristic lane marker recognition device.
請求項1〜4のいずれかに記載のレーンマーカ認識装置において、
前記第1のレーンマーカ認識手段および前記第2のレーンマーカ認識手段の少なくとも一方によりレーンマーカを検出し、検出結果に基づいて前記検出したレーンマーカと前記信号送出手段との距離を検出する距離検出手段をさらに備え、前記信号送出手段は、前記距離検出手段により検出されたレーンマーカからの距離に基づいて定められる方向に前記光信号を送出することを特徴とするレーンマーカ認識装置。
The lane marker recognition device according to any one of claims 1 to 4,
The apparatus further includes distance detecting means for detecting a lane marker by at least one of the first lane marker recognizing means and the second lane marker recognizing means, and detecting a distance between the detected lane marker and the signal transmitting means based on a detection result. And a signal transmitting unit that transmits the optical signal in a direction determined based on a distance from the lane marker detected by the distance detecting unit.
請求項5に記載のレーンマーカ認識装置において、
前記選択手段は、前記信号受信手段により受信した反射信号のうち、前記距離検出手段により検出されたレーンマーカと前記信号送出手段との距離に基づいて定められる距離範囲からの反射信号の受信量に基づいて、前記第1のレーンマーカ認識手段および前記第2のレーンマーカ認識手段のうちのいずれか一方を選択することを特徴とするレーンマーカ認識装置。
The lane marker recognition device according to claim 5,
The selection unit is configured to select, based on a reception amount of a reflection signal from a distance range determined based on a distance between the lane marker detected by the distance detection unit and the signal transmission unit, of the reflection signals received by the signal reception unit. A lane marker recognizing device for selecting one of the first lane marker recognizing means and the second lane marker recognizing means.
JP2002303270A 2002-10-17 2002-10-17 Lane marker recognition device Expired - Fee Related JP3997885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002303270A JP3997885B2 (en) 2002-10-17 2002-10-17 Lane marker recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002303270A JP3997885B2 (en) 2002-10-17 2002-10-17 Lane marker recognition device

Publications (2)

Publication Number Publication Date
JP2004139338A true JP2004139338A (en) 2004-05-13
JP3997885B2 JP3997885B2 (en) 2007-10-24

Family

ID=32451108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002303270A Expired - Fee Related JP3997885B2 (en) 2002-10-17 2002-10-17 Lane marker recognition device

Country Status (1)

Country Link
JP (1) JP3997885B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007000911A1 (en) 2005-06-27 2007-01-04 Honda Motor Co., Ltd. Vehicle and lane recognition device
JP2007213166A (en) * 2006-02-07 2007-08-23 Toyota Motor Corp Road lane marker detection device, method, and program
JP2007220028A (en) * 2006-02-20 2007-08-30 Toyota Motor Corp Device, method, and program for detecting road section line
CN100370226C (en) * 2004-07-23 2008-02-20 东北大学 Method for visual guiding by manual road sign
JP2008158672A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Lane marking recognition device
JP2009509251A (en) * 2005-09-20 2009-03-05 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング How to recognize lane marks
JP2010026798A (en) * 2008-07-18 2010-02-04 Honda Motor Co Ltd Vehicle travel safety apparatus
DE102011006216A1 (en) 2010-03-26 2011-11-24 Denso Corporation Apparatus and method for detecting dividing lines displayed on the road
JP2013012044A (en) * 2011-06-29 2013-01-17 Nippon Soken Inc On-vehicle white line recognition apparatus
WO2014024336A1 (en) * 2012-08-09 2014-02-13 トヨタ自動車株式会社 Object detection apparatus and driving assistance apparatus
WO2014003860A3 (en) * 2012-03-23 2014-03-06 Google Inc. Detecting lane markings
US8755967B1 (en) 2012-03-23 2014-06-17 Google Inc. Estimating road lane geometry using lane marker observations
JP2014526104A (en) * 2011-08-05 2014-10-02 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Driving lane recognition method using a camera
KR101694347B1 (en) * 2015-08-31 2017-01-09 현대자동차주식회사 Vehicle and lane detection method for the vehicle
GB2560799A (en) * 2017-01-23 2018-09-26 Ford Global Tech Llc Sign recognition for autonomous vehicles
DE102022122382A1 (en) 2021-09-22 2023-03-23 Subaru Corporation DRIVING ASSISTANT DEVICE FOR A VEHICLE

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110843673B (en) * 2019-11-20 2021-05-18 斑马网络技术有限公司 Vehicle-mounted anti-dizziness view forming method, generating device and anti-dizziness device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261756A (en) * 1994-11-10 1996-10-11 Toyota Central Res & Dev Lab Inc Running lane recognizing device
JPH08285873A (en) * 1995-04-19 1996-11-01 Internatl Business Mach Corp <Ibm> Apparatus and method for detection of speed of moving object
JPH09207809A (en) * 1996-02-06 1997-08-12 Mitsubishi Electric Corp Automatically traveling device of vehicle
JPH1011585A (en) * 1996-06-20 1998-01-16 Toyota Motor Corp Object detection device
JPH1031799A (en) * 1996-07-15 1998-02-03 Toyota Motor Corp Automatic traveling controller
JP2000338225A (en) * 1999-05-26 2000-12-08 Toyota Motor Corp Device and system for detecting object
JP2003123058A (en) * 2001-10-17 2003-04-25 Hitachi Ltd Traveling lane recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261756A (en) * 1994-11-10 1996-10-11 Toyota Central Res & Dev Lab Inc Running lane recognizing device
JPH08285873A (en) * 1995-04-19 1996-11-01 Internatl Business Mach Corp <Ibm> Apparatus and method for detection of speed of moving object
JPH09207809A (en) * 1996-02-06 1997-08-12 Mitsubishi Electric Corp Automatically traveling device of vehicle
JPH1011585A (en) * 1996-06-20 1998-01-16 Toyota Motor Corp Object detection device
JPH1031799A (en) * 1996-07-15 1998-02-03 Toyota Motor Corp Automatic traveling controller
JP2000338225A (en) * 1999-05-26 2000-12-08 Toyota Motor Corp Device and system for detecting object
JP2003123058A (en) * 2001-10-17 2003-04-25 Hitachi Ltd Traveling lane recognition device

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100370226C (en) * 2004-07-23 2008-02-20 东北大学 Method for visual guiding by manual road sign
EP1898357A4 (en) * 2005-06-27 2008-09-17 Honda Motor Co Ltd Vehicle and lane recognition device
EP1898357A1 (en) * 2005-06-27 2008-03-12 HONDA MOTOR CO., Ltd. Vehicle and lane recognition device
US8144926B2 (en) 2005-06-27 2012-03-27 Honda Motor Co., Ltd Vehicle and lane recognition device
WO2007000911A1 (en) 2005-06-27 2007-01-04 Honda Motor Co., Ltd. Vehicle and lane recognition device
JP2009509251A (en) * 2005-09-20 2009-03-05 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング How to recognize lane marks
JP2007213166A (en) * 2006-02-07 2007-08-23 Toyota Motor Corp Road lane marker detection device, method, and program
JP2007220028A (en) * 2006-02-20 2007-08-30 Toyota Motor Corp Device, method, and program for detecting road section line
JP2008158672A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Lane marking recognition device
JP4735530B2 (en) * 2006-12-21 2011-07-27 トヨタ自動車株式会社 Road marking line recognition device
JP2010026798A (en) * 2008-07-18 2010-02-04 Honda Motor Co Ltd Vehicle travel safety apparatus
US8724093B2 (en) 2010-03-26 2014-05-13 Denso Corporation Apparatus and method for detecting division lines depicted on road
DE102011006216A1 (en) 2010-03-26 2011-11-24 Denso Corporation Apparatus and method for detecting dividing lines displayed on the road
JP2013012044A (en) * 2011-06-29 2013-01-17 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2014526104A (en) * 2011-08-05 2014-10-02 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Driving lane recognition method using a camera
WO2014003860A3 (en) * 2012-03-23 2014-03-06 Google Inc. Detecting lane markings
US8755967B1 (en) 2012-03-23 2014-06-17 Google Inc. Estimating road lane geometry using lane marker observations
US8948958B1 (en) 2012-03-23 2015-02-03 Google Inc. Estimating road lane geometry using lane marker observations
WO2014024336A1 (en) * 2012-08-09 2014-02-13 トヨタ自動車株式会社 Object detection apparatus and driving assistance apparatus
CN104584097A (en) * 2012-08-09 2015-04-29 丰田自动车株式会社 Electric motor
JPWO2014024336A1 (en) * 2012-08-09 2016-07-25 トヨタ自動車株式会社 Object detection device and driving support device
US10246030B2 (en) 2012-08-09 2019-04-02 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and driving assistance apparatus
KR101694347B1 (en) * 2015-08-31 2017-01-09 현대자동차주식회사 Vehicle and lane detection method for the vehicle
US9910157B2 (en) 2015-08-31 2018-03-06 Hyundai Motor Company Vehicle and lane detection method for the vehicle
GB2560799A (en) * 2017-01-23 2018-09-26 Ford Global Tech Llc Sign recognition for autonomous vehicles
DE102022122382A1 (en) 2021-09-22 2023-03-23 Subaru Corporation DRIVING ASSISTANT DEVICE FOR A VEHICLE

Also Published As

Publication number Publication date
JP3997885B2 (en) 2007-10-24

Similar Documents

Publication Publication Date Title
JP3997885B2 (en) Lane marker recognition device
US10183666B2 (en) Method and device for determining a valid lane marking
JP4659631B2 (en) Lane recognition device
US9713983B2 (en) Lane boundary line recognition apparatus and program for recognizing lane boundary line on roadway
TWI417207B (en) Image - based obstacle detection reversing warning system and method
US7049945B2 (en) Vehicular blind spot identification and monitoring system
US6911642B2 (en) Object presence detection method and device
JP3393192B2 (en) Vehicle with object detection device
US6542111B1 (en) Path prediction for vehicular collision warning system
Lindner et al. Multi-channel lidar processing for lane detection and estimation
JP4568637B2 (en) Road recognition device
JP2001134769A (en) Object recognizing device
US20060111841A1 (en) Method and apparatus for obstacle avoidance with camera vision
JP2015172934A (en) Object recognition device and object recognition method
JPH08313632A (en) Alarm generator, alarm generating method and vehicle mounting alarm generator
JPH09142236A (en) Periphery monitoring method and device for vehicle, and trouble deciding method and device for periphery monitoring device
KR20130051681A (en) System and method for recognizing road sign
US20120163671A1 (en) Context-aware method and apparatus based on fusion of data of image sensor and distance sensor
JP2001134771A (en) Object recognizing device
JP2007114831A (en) Object detection device
JP2007264712A (en) Lane detector
JP2001195698A (en) Device for detecting pedestrian
KR20080004832A (en) Apparatus and method for detecting a vehicle
JP4321142B2 (en) Sign recognition device
JP2005202787A (en) Display device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070730

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees