JP4437714B2 - 車線認識画像処理装置 - Google Patents

車線認識画像処理装置 Download PDF

Info

Publication number
JP4437714B2
JP4437714B2 JP2004208738A JP2004208738A JP4437714B2 JP 4437714 B2 JP4437714 B2 JP 4437714B2 JP 2004208738 A JP2004208738 A JP 2004208738A JP 2004208738 A JP2004208738 A JP 2004208738A JP 4437714 B2 JP4437714 B2 JP 4437714B2
Authority
JP
Japan
Prior art keywords
lane
window
image
setting
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004208738A
Other languages
English (en)
Other versions
JP2006031365A (ja
Inventor
貴幸 山本
善行 藤井
寿 石倉
昭暢 杉山
賢一 藤江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004208738A priority Critical patent/JP4437714B2/ja
Priority to US11/003,468 priority patent/US7209832B2/en
Publication of JP2006031365A publication Critical patent/JP2006031365A/ja
Application granted granted Critical
Publication of JP4437714B2 publication Critical patent/JP4437714B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、車両に搭載されて路面上のレーンマーキングの撮影画像に基づいて車線を認識する車線認識画像処理装置であって、自動車の予防安全を目的とした車線逸脱警報(LDWS:Lane Departure Warning System)や運転者の負担軽減を目的としたレーンキープシステム(LKS:Lane Keep System)などの車両制御システムに適用される車線認識画像処理装置に関し、特に車線内における車両横位置情報を提供することにより、認識結果の信頼性を向上させた技術に関するものである。
従来の車線認識画像処理装置としては、画像フィルタを用いたものがある(たとえば、特許文献1参照)。
この種の画像フィルタは、濃淡画像を対象として、周辺よりも明るく且つ一定の幅以下の領域を、レーンマーキングとして抽出することにより、比較的簡単な回路で構成されている。
特許文献1による処理内容は、1次元画像フィルタ処理と称されるもので、注目画素の濃淡値g(h)と、探索走査方向の前後にカーネルサイズΔhだけ離れた画素の濃淡値g(h−Δh)、g(h+Δh)とを参照し、{g(h)−g(h−Δh)}と{g(h)−g(h+Δh)}とにより算出される値のうち、小さい方の値をフィルタ出力値としている。
特開平10−320549号公報
従来の車線認識画像処理装置では、カメラを車両進行方向に向けて設置して車両前方を撮影する場合、画像上の物体が消失点に向かって線形的に小さく映ることから、1次元画像フィルタの注目画素近傍を参照する幅(カーネルサイズΔh)が一定の場合には、遠方になるほど抽出領域の幅は線形的に大きくなる。したがって、物理量として一定幅のレーンマーキングを対象とした場合には、遠方ほどレーンマーキング以外の誤検出対象が含まれる可能性が高くなり、道路形状を把握するために必要となる遠方のレーンマーキング認識結果の信頼性が低下するという課題があった。
また、路面上の領域に高輝度のノイズ成分を含む道路画像に対して、レーンマーキング抽出用の画像フィルタを適用すると、ノイズ部分をレーンマーキングとして誤検出する可能性がある。特に、かすれたレーンマーキングを抽出するために2値化閾値を低減制御している場合や、間欠レーンマーキングの不連続部などで、探索範囲内にレーンマーキングが存在せずに高輝度ノイズ成分のみが存在する場合には、ノイズを誤検出する可能性が非常に高いという課題があった。
また、撮影手段としてCMOS撮像素子を用いた場合には、CCD撮像素子に比べて、CMOS撮像素子は、周辺回路の小型化および低コスト化に対して優位性があるものの、S/N比が低下するので、撮影画像中にノイズが含まれる可能性が高い。したがって、CMOS撮像画像に対して、画像フィルタの2値化閾値を通常通り制御すると、ノイズ成分をフィルタパスさせてしまうことから、レーンマーキングの認識性能を低下させてしまうという課題があった。
また、近年では、ダイナミックレンジの広いCMOS撮像素子も開発されつつあり、間欠的な高輝度部分も視認可能になっているが、広ダイナミックレンジ化された画像を複数階調(たとえば、256階調)の濃淡画像で表現すると、画像全体が低コントラストになるので、通常の2値化閾値の制御では、レーンマーキング抽出が困難な場合が多いという課題があった。
また、従来の車線認識画像処理装置では、1つの画像に対して1つの2値化閾値を用いることにより、レーンマーキングを抽出していたが、一般に、画像フィルタの出力結果において、近傍ではコントラストが高く、遠方ではコントラストが低いので、1つの2値化閾値でレーンマーキングを抽出しようとすると、遠方のレーンマーキングを抽出することができないという課題があった。
また、単純に、遠方にいくほど2値化閾値を低減制御しても、道路周辺環境によっては、道路構造物の陰などにより、遠方または近傍でコントラストが大きく異なる状況も発生するので、簡単に対応することができないという課題があった。
また、ウィンドウ設定において、レーンマーキングを含むように位置を設定し、ウィンドウサイズを限定するために、前回のレーンマーキング数学的モデル式から算出した位置を基準に今回のウィンドウを設定するのが妥当であるが、抽出された候補点数が少なく、レーンマーキング数学的モデル式が導出できない状態(すなわち、レーンマーキングの見失い状態)においては、設定基準位置が存在しないので、画面全体から探索できるようウィンドウを広く設定する必要がある。このとき、探索範囲が広いことから、処理時間がかかるので、見失い状態になってからレーンマーキング認識状態に復帰するまでに時間がかかり、車線認識画像処理装置としての性能を大きく下げるという課題があった。
さらに、車線認識画像処理において1次元画像フィルタを用い、レーンマーキングの特徴的な(一定幅を有し、且つ路面よりも輝度が高い)トップハット(Top−Hat)形状を抽出することが提案されているが、広いダイナミックレンジの撮像素子による低コントラストの画像や、低S/N比の画像に対しては、レーンマーキング以外の対象物を誤検出する可能性があるうえ、一旦、レーンマーキングを見失うと、次に認識復帰するまでに時間がかかるという課題があった。
この発明は、フィルタの近傍輝度参照位置および2値化閾値を前方距離に応じて設定することにより、トップハット1次元画像フィルタの基本原理を変えずに、条件を付加することで誤検出を低減し、レーンマーキング認識性能を向上させた車線認識画像処理装置を得ることを目的とする。
また、画像のS/N比に応じて2値化閾値の下限値を設定し、閾値の下がり過ぎに起因した誤検出を低減するとともに、探索領域設定用のウィンドウを近傍側から遠方側へ順に設定して、1つ手前の抽出結果に基づいて次のウィンドウ位置を設定することにより、ウィンドウ設定位置をレーンマーキング上に確実に設定し、同時に、ウィンドウサイズを限定することにより、レーンマーキング見失い状態からの復帰時間を短縮することのできる車線認識画像処理装置を得ることを目的とする。
この発明による車線認識画像処理装置は、車両に搭載されて路面上のレーンマーキングの撮影画像に基づいて車線を認識する車線認識画像処理装置であって、車両の前方を撮影する撮影手段と、撮影手段により得られた画像を一時記憶する画像記憶手段と、画像記憶手段に記憶された画像に対してレーンマーキングの探索範囲をウィンドウにより設定するウィンドウ設定手段と、ウィンドウ設定手段により設定された探索範囲からレーンマーキングの候補点を抽出する候補点抽出手段と、候補点抽出手段により抽出された候補点の集合を数学的モデル式で近似して、レーンマーキング数学的モデル式を導出する車線認識手段と、を備え、候補点抽出手段は、車両からの前方距離に応じてカーネルサイズΔhを設定するカーネルサイズ設定手段と、注目画素の濃淡値g(h)と、探索走査方向の前後にカーネルサイズΔhだけ離れた画素の濃淡値g(h−Δh)、g(h+Δh)と、を用いた以下の2つの式、{g(h)−g(h−Δh)}、{g(h)−g(h+Δh)}から得られる値のうち、小さい方の値をフィルタ処理結果として出力する1次元画像フィルタ処理手段と、フィルタ処理結果を閾値により2値化する2値化手段と、を含むものである。
この発明によれば、トップハット1次元画像フィルタの基本原理は変えず、条件を付加することで誤検出を低減し、レーンマーキング認識性能を向上させることができる。
実施の形態1.
図1はこの発明の実施の形態1に係る車線認識画像処理装置を示すブロック図であり、各構成要素を処理手順に対応させて示している。
また、図2はこの発明の実施の形態1に係る車線認識画像処理装置を搭載した車両2を示す外観図である。
図2において、撮影手段を構成するカメラ1は、車両2の前方上部に設置されており、車両2の前方を撮影するようになっている。
図1において、車線認識画像処理装置は、車両2(図2参照)に搭載されて路面上のレーンマーキングの撮影画像に基づいて車線を認識するために、カメラ1を含む撮影手段101と、撮影手段101により得られた画像を一時記憶する画像記憶手段102と、画像記憶手段102に記憶された画像に対してレーンマーキングの探索範囲をウィンドウWにより設定するウィンドウ設定手段103と、ウィンドウ設定手段103により設定された探索範囲からレーンマーキングの候補点を抽出する候補点抽出手段104と、候補点抽出手段104により抽出された候補点の集合を数学的モデル式で近似して、レーンマーキング数学的モデル式を導出する車線認識手段105と、を備えている。
ウィンドウ設定手段103は、モデル式基準手段(図示せず)を有しており、レーンマーキング数学的モデル式からウィンドウWの基準位置を設定するようになっている。
候補点抽出手段104は、カーネルサイズ設定手段141aを含む1次元画像フィルタ処理手段141と、1次元画像フィルタ処理手段141のフィルタ処理結果Eを閾値により2値化する2値化手段142と、により構成されている。
カーネルサイズ設定手段141aは、車両2からの前方距離に応じて、カーネルサイズΔhを設定する。
1次元画像フィルタ処理手段141は、トップハットフィルタ(Top−Hat Filter)により構成され、注目画素の濃淡値g(h)と、探索走査方向の前後にカーネルサイズΔhだけ離れた画素の濃淡値g(h−Δh)、g(h+Δh)と、を用いた2つの式、{g(h)−g(h−Δh)}および{g(h)−g(h+Δh)}から得られる値のうち、小さい方の値をフィルタ処理結果Eとして出力する。
2値化手段142は、1次元画像フィルタ処理手段141の探索走査線ごとに閾値(後述する)を設定する閾値複数設定手段142aと、フィルタ処理結果EのS/N比Rsを演算するS/N比演算手段142bと、S/N比Rsにより閾値の下限値を設定する閾値下限値設定手段142cと、により構成されている。
S/N比演算手段142bは、フィルタ処理結果Eのうち、規定値未満の領域幅を有するフィルタパス領域の数をノイズ領域数Mnとしてカウントし、フィルタ処理結果Eのうち、規定値以上の領域幅を有するフィルタパス領域の数を信号領域数Msとしてカウントし、ノイズ領域数Mnおよび信号領域数Msに基づいてS/N比Rsを演算する。
図1に示した車線認識画像処理装置の基本的なハードウェア構成は、従来装置と共通であるが、具体的な処理内容として、カーネルサイズ設定手段141aと、閾値複数設定手段142aと、S/N比演算手段142bと、閾値下限値設定手段142cと、を備えた点が異なる。
次に、図3〜図6を参照しながら、図1および図2に示したこの発明の実施の形態1による具体的な処理動作について説明する。
図3は車両2の前方道路を撮影したカメラ1から出力される前方画像の一例を示す説明図であり、左右のレーンマーキング3、4が撮影された状態を示している。
図4は前方画像における各レーンマーキング3、4の候補点P1、P2を示す説明図であり、レーンマーキング探索ライン(以下、単に「探索ライン」という)Vn上のフィルタ処理結果E(トップハットフィルタの出力)と、探索ラインVn上の左右のウィンドウW1、W2と、候補点P1、P2とを関連させて示している。
図5は前方画像における複数の候補点P1、P2を示す説明図であり、複数の探索ラインVn(n=0、1、…、N−1)上の候補点P1、P2の集合がレーンマーキング3、4に沿って検出された例を示している。また、図5において、矢印Hは水平方向、矢印Vは垂直方向を示している。
図6は図5内の候補点P1、P2の集合を近似した2次曲線(レーンマーキング数学的モデル式)7、8を示す説明図であり、左右のレーンマーキング3、4に沿って近似された2次曲線7、8を前方画像に重畳して示している。
まず、車両2に搭載されたカメラ1からなる撮影手段101は、車両2の前方を撮影し、撮影画像(図3参照)を取得する。このとき、車両2が走行する車線の左右のレーンマーキング3、4は、水平画角内に収まっているものとする。
なお、カメラ1に搭載される撮像素子は、CMOS撮像素子とする。
画像記憶手段102は、図3の撮影画像をメモリに取り込む。
続いて、ウィンドウ設定手段103は、図4に示すように、探索走査線を構成する探索ラインVn(n=0、1、…、N−1)上で、左右の候補点P1、P2を探索するための水平方向の走査範囲を、左右のウィンドウW1、W2(破線枠参照)により設定する。
左右のウィンドウW1、W2は、前回の画像処理におけるレーンマーキング数学的モデル式により算出した位置を設定基準位置として設定される。
また、各ウィンドウW1、W2のサイズは、画像処理を行う画像において前回画像と今回画像との時間差で生じるレーンマーキング3、4の最大移動量に合わせて設定される。すなわち、画像処理の周期が長いほど、ウィンドウW1、W2のサイズは大きくなる。
次に、候補点抽出手段104は、ウィンドウW1、W2(図4参照)内を水平方向に走査し、画像記憶手段102(メモリ)から読み出した原画像輝度分布Dに対して、1次元画像フィルタ処理手段141によるフィルタ処理を実行し、フィルタ処理結果Eを生成して2値化手段142に入力する。
このとき、1次元画像フィルタ処理手段(トップハットフィルタ)141は、前述のように、注目画素の濃淡値g(h)と、注目画素の探索走査方向の前後にカーネルサイズΔhだけ離れた画素の濃淡値g(h−Δh)、g(h+Δh)とを参照して、注目画素と前後画素との各濃淡値の差分{g(h)−g(h−Δh)}、{g(h)−g(h+Δh)}のうち、小さい方の値をフィルタ処理結果Eとして出力する。
また、カーネルサイズ設定手段141aは、車両からの前方距離に応じて、カーネルサイズΔhを設定する。
2値化手段142は、1次元画像フィルタ処理手段141で得られたフィルタ処理結果Eを閾値により2値化し、候補点P1、P2を検出して車線認識手段105に入力する。
上記一連の処理は、N本分設定された探索ラインV0〜VN−1(図5参照)に対して実行され、レーンマーキング3、4に沿った候補点P1、P2の集合が取得される。
最後に、車線認識手段105は、レーンマーキング3、4の候補点P1、P2の集合を数学的モデル式(たとえば、2次式)で近似し、車線を表すレーンマーキング数学的モデル式7、8(図6参照)を取得する。
以上により、図1に示した車線認識画像処理装置による処理動作が終了する。
次に、図7〜図10を参照しながら、1次元画像フィルタ処理手段141による詳細な処理動作について説明する。
ここでは、前述のように、1次元画像フィルタ処理手段141として、1次元トップハットフィルタ(以下、「T−Hフィルタ」と略称する)が用いられる。
図7は原画像輝度分布Dに対するフィルタ処理結果E(T−Hフィルタ出力)を示す説明図であり、横軸は水平座標、縦軸は輝度値(0〜255)を示している。
図7においては、原画像輝度分布D上の注目点Poと、カーネルサイズΔhだけ離れた前後の参照点Pa、Pbとの各輝度差Δg1、Δg2が示されている。
ここで、注目点Poおよび参照点Pa、Pbの各輝度値を、gPo、gPa、gPbとすれば、各輝度差Δg1、Δg2は、それぞれ、以下のように表される。
Δg1=gPo−gPa
Δg2=gPo−gPb
なお、注目点Poの輝度値gPoは、注目画素の濃淡値g(h)に対応し、参照点Pa、Pbの輝度値gPa、gPbは、探索走査方向の前後にカーネルサイズΔhだけ離れた画素の濃淡値g(h−Δh)、g(h+Δh)に対応する。
図8は1次元画像フィルタ処理手段141によるT−Hフィルタ処理を示すフローチャートである。
図9は候補点P1、P2の検出処理を示す説明図であり、フィルタ処理結果E(T−Hフィルタ出力結果)を閾値により2値化して検出する状態を示している。
図10はカーネルサイズ設定手段141aの処理を示す説明図であり、T−Hフィルタ処理用のカーネルサイズΔhを、前方距離に応じて可変設定した状態を示している。
まず、図7に示すように、1次元画像フィルタ処理手段141は、256階調(輝度値0〜255)で明るさが表される原画像輝度分布Dに対し、注目点Po、参照点Pa、Pbを設定する。
ここで、注目点Poと参照点Paとの距離、および、注目点Poと参照点Pbとの距離は、それぞれカーネルサイズΔhと称され、図10のように、前方距離に応じてカーネルサイズ設定手段141aにより設定される。フィルタパスさせる領域幅(後述する)は、カーネルサイズΔhによって設定される。
カーネルサイズ設定手段141aは、具体的には、図10のように、探索ラインVnごとに(すなわち、前方距離に応じて)個別にカーネルサイズΔhを設定する。
これにより、カーネルサイズΔhは、上面視で前方距離に関わらず一定となるように設定される。
このようなカーネルサイズΔhの設定処理は、撮影物体が消失点Pzに向かって線形的に小さくなることを利用している。したがって、最も近傍のカーネルサイズΔhがレーンマーキング3、4の幅相当に設定されていれば、各探索ラインVn上のカーネルサイズΔhは、前方距離に応じた線形補間によって順次に算出される。
図8に示す1次元T−Hフィルタ処理において、まず、図7のように設定された注目点Poと参照点Paとの輝度差Δg1と、注目点Poと参照点Pbとの輝度差Δg2とを比較し、Δg1<Δg2の関係を満たすか否かを判定する(ステップS10)。
ステップS10において、Δg1<Δg2(すなわち、Yes)と判定されれば、続いて、輝度差Δg1(=gPo−gPa)が正の値であるか否かを判定する(ステップS11)。
一方、ステップS10において、Δg1≧Δg2(すなわち、No)と判定されれば、続いて、輝度差Δg2(=gPo−gPb)が正の値であるか否かを判定する(ステップS12)。
ステップS11において、Δg1>0(すなわち、Yes)と判定されれば、フィルタ処理結果E(T−Hフィルタ出力値)として輝度差Δg1を出力し(ステップS13)、図8の処理ルーチンを終了する。
また、ステップS12において、Δg2>0(すなわち、Yes)と判定されれば、フィルタ処理結果Eとして輝度差Δg2を出力し(ステップS14)、図8の処理ルーチンを終了する。
一方、ステップS11において、Δg1≦0(すなわち、No)と判定されるか、または、ステップS12において、Δg2≦0(すなわち、No)と判定されれば、フィルタ処理結果Eを「0」に設定して(ステップS15)、図8の処理ルーチンを終了する。
このように、輝度差Δg1、Δg2のうちの小さい方の値を選択して、フィルタ処理結果Eとして出力する。
たとえば、図7に示した原画像輝度分布Dの場合には、Δg1<Δg2であるため、ステップS10からステップS11に進み、Δg1>0であれば、ステップS13に進み、輝度差Δg1がフィルタ処理結果E(T−Hフィルタ出力値)となる。
なお、Δg1≦0であれば、ステップS15に進み、フィルタ処理結果E(T−Hフィルタ出力値)は「0」となる。
また、ステップS10からステップS12に進んだ(輝度差Δg2が選択された)場合も、輝度差Δg2の正負が判定され、ステップS14またはステップS15でフィルタ処理結果E(T−Hフィルタ出力値)が決定される。
上記一連の処理S10〜S15は、各探索ラインVnごとのウィンドウ内の注目点Poに対して実行され、これにより、図9に示すように、原画像輝度分布Dに対するフィルタ処理結果E(破線参照)が得られる。
ただし、図9においては、説明を簡略化するため、1ラインのフィルタ処理結果のみが示されている。
以下、2値化手段142は、2値化(T−Hフィルタ)閾値(以下、単に「閾値」という)Thを用いてフィルタ処理結果Eを2値化し、候補点P1、P2を求める。
閾値Thは、図9に示すように、フィルタ処理結果Eに対して設定され、左右の候補点P1、P2の検出に寄与する。
なお、図9においては、閾値Thによって抽出される領域に対し、左右の候補点P1、P2の位置を、いずれも車線領域の内側に設定したが、閾値Thによって抽出される領域の中点に設定してもよい。
ここで、図11および図12を参照しながら、2値化手段142内の閾値複数設定手段142aによる閾値Thの設定処理について説明する。
図11は近傍および遠方のフィルタ処理結果(T−Hフィルタ出力結果)を示す説明図であり、近傍のフィルタ処理結果Eaに比べて遠方のフィルタ処理結果Ebのコントラストが低下する状態を示している。
図12は近傍および遠方のフィルタ処理結果に対して設定される閾値を示す説明図であり、近傍および遠方のフィルタ処理結果Ea、Ebに対して独立した閾値Tha、Thbを適用することにより、近傍および遠方の両方の候補点が検出可能となる状態を示している。
カーネルサイズΔhの設定(図10参照)と同様に、2値化手段142内の閾値複数設定手段142aは、閾値Thを探索ラインVnごとに個別に設定する。
たとえば、図11に示すように、近傍および遠方の探索ラインVa、Vb上で、それぞれ近傍および遠方のフィルタ処理結果Ea、Ebが得られているものとする。
ここで、近傍の探索ラインVaに注目すると、閾値Thaは、近傍のフィルタ処理結果Eaから最大値Ea(max)および平均値Ea(mean)を算出し、以下の式(1)のように設定される。
Tha=Ea(max)−Ea(mean) ・・・(1)
遠方の探索ラインVbにおける閾値Thbも同様に設定される。以下、同様にして、各探索ラインVnごとに独立した閾値Thが設定される。
この結果、図12に示すように、近傍のフィルタ処理結果Eaに比べて、コントラストが低下する遠方のフィルタ処理結果Ebに対して、適正な閾値Thb(<Tha)が設定される。
このように、フィルタ処理結果Eに対し、探索ラインVnごとに(前方距離に応じて)独立して、カーネルサイズΔhに基づく輝度参照位置(参照点Pa、Pb)と閾値Thとを設定することにより、前方距離に関わらず、一定幅以上の領域を信号領域としてフィルタパスさせることができ、一定幅をもつレーンマーキング3、4を抽出するのに有効な画像フィルタ処理を実現することができる。
したがって、1次元画像(トップハット)フィルタ処理手段141の基本原理を変えずに、上記条件を付加することのみで、誤検出を低減し、レーンマーキング3、4の認識性能を向上させることができる。
特に、低コントラストとなる遠方のフィルタ処理結果Eb(図11、図12参照)における誤検出を低減することで、道路形状を把握するために必要となる遠方のレーンマーキング認識結果の信頼性を向上させることができる。
すなわち、閾値複数設定手段142cにおいて、1次元画像フィルタ処理手段141の探索ライン(探索走査線)Vnごとに閾値Thを設定し、図12に示すように、近傍に比べてコントラストの低下する遠方に対して適正な閾値Thb(<Tha)を設定することにより、遠方のレーンマーキング認識性能を向上させることができる。
また、探索ラインVnごとに閾値Thを設定することにより、道路構造物の陰などにより、逆に近傍のコントラストが低下する状態にも対応できる。
また、レーンマーキング数学的モデル式を用いて、ウィンドウWを探索ラインVnごとに(近傍側から遠方側に向けて)順に設定し、1つ手前の抽出結果に基づいて次のウィンドウ位置を設定することにより、ウィンドウWの設定位置をレーンマーキング3、4上に確実に設定することができる。また、ウィンドウWのサイズを限定することにより、レーンマーキング3、4の見失い状態からの復帰時間を短縮することができる。
さらに、1次元画像フィルタ処理手段141および2値化手段142における処理動作のダイナミックレンジが広いことから、画像全体のコントラストが低下する広ダイナミックレンジのCMOS撮像素子を用いた画像に対しても、2値化閾値を適正に設定することができる。
次に、図13を参照しながら、S/N比演算手段142bによるS/N比Rsの演算処理について説明する。
図13はフィルタ処理結果Eに対する信号領域およびノイズ領域の判定処理を示す説明図であり、横軸は水平座標、縦軸はフィルタ処理結果Eの出力レベルを示している。
S/N比演算手段142bは、図13に示すように、信号領域とともにノイズ領域20を検出して、各領域数からS/N比Rsを算出し、S/N比Rsを閾値Thの設定条件に用いる。
図13において、まず、S/N比演算手段142bは、フィルタ処理結果Eに対して閾値Thを用いることにより、フィルタパス領域(斜線部参照)を抽出する。
続いて、各フィルタパス領域の幅dを規定値と比較し、規定値以上の領域幅dを有するものは信号領域と判定し、規定値未満の領域幅を有するものはノイズ領域20と判定する。
また、信号領域の数Msおよびノイズ領域20の数Mnをそれぞれカウントし、信号領域数Msおよびノイズ領域数Mnを用いた以下の式(2)による演算値を、S/N比Rsとして定義する。
Rs=Ms/(Ms+Mn)×100[%] ・・・(2)
次に、閾値下限値設定手段142cによる閾値Thの下限値の設定処理について説明する。
閾値下限値設定手段142cは、S/N比演算手段142bで算出されたS/N比Rsに基づいて、閾値Thの下限値を設定する。具体的には、S/N比Rsを一定に保つように閾値Thを制御する。
たとえば、S/N比Rsの許容下限値を70%とした場合、S/N比Rsが70%以上を満たしたときの閾値Th(70%)を常に記憶しておき、S/N比Rsが70%未満になったときに、最新の(最後に記憶した)閾値Th(70%)を採用する、といった制御処理が適用される。
このように、閾値下限値設定手段142cにおいて、画像のS/N比Rsに基づいて閾値Thの下限値を設定し、閾値Thの下がり過ぎに起因する誤検出を低減することにより、ノイズの多い画像に対しても、閾値Thの下げ過ぎに起因する誤検出を大幅に低減することができる。
特に、図14のように、間欠的なレーンマーキング3の車線走行時において、ウィンドウW1内にレーンマーキング3が存在しない状態に対して、有効に誤検出を低減することができる。
また、撮影手段101としてCMOS撮像素子を用いた場合には、CCD撮像素子を用いた場合と比べて撮影画像のS/N比が低下するが、CMOS撮像素子を用いた場合でも、S/N比Psに応じて閾値Thの下限値を設定することにより、CCD撮像素子を用いた場合と同等のレーンマーキング3、4の認識性能を実現することができる。
実施の形態2.
なお、上記実施の形態1では、ウィンドウの設定においてモデル式基準手段のみを用いたが、図15のように、ウィンドウ設定手段103A内の基準位置設定手段131に候補点基準手段131bおよび消失点基準手段131cを追加するとともに、消失点学習手段106を設け、探索ラインVnごとにウィンドウWを最適に設定してもよい。
図15はこの発明の実施の形態2に係る車線認識画像処理装置を処理手順に対応させて示すブロック図であり、前述(図1参照)と同様のものについては、前述と同一符号を付して詳述を省略する。
図15において、前述(図1)と異なる点は、ウィンドウ設定手段103内の基準位置設定手段131に、モデル式基準手段131aのみならず、候補点基準手段131bおよび消失点基準手段131cを設けたこととともに、消失点基準手段131cに関連して、消失点学習手段106を設けたことにある。
基準位置設定手段131は、モデル式基準手段131aと、候補点基準手段131bと、消失点基準手段131cとを含み、レーンマーキング3、4を探索するためのウィンドウWの基準位置を、モデル式基準手段131a、候補点基準手段131bおよび消失点基準手段131cのいずれかを選択して設定する。
ウィンドウ設定手段103A内のモデル式基準手段131aは、前述のレーンマーキング数学的モデル式から、探索ラインVn上のウィンドウWの基準位置を設定する。
図16は候補点基準手段131bの処理を示す説明図であり、便宜的に左側のレーンマーキング3のみに注目して、左側のウィンドウW1に対して基準位置を設定する場合を示している。
図16において、基準位置設定手段131内の候補点基準手段131bは、2点以上の候補点Pq、Prが存在する場合に、近傍の2点の候補点Pq、Prを結ぶ直線Lqrに基づいて、次の探索ラインVnにおけるウィンドウW1を設定する。
すなわち、直線Lqrと探索ラインVnとの交点Pxを基準として、ウィンドウW1を設定する。
図17は消失点基準手段131cの処理を示す説明図であり、図16の場合と同様に、左側のレーンマーキング3のみに注目して、左側のウィンドウW1に対して基準位置を設定する場合を示している。
図17において、ウィンドウ設定手段103A内の消失点基準手段131cは、1点のみの候補点Pqが存在する場合に、近傍の候補点Pqと消失点Pzとを結ぶ直線Lqzに基づいて、次の探索ラインVnにおけるウィンドウVnを設定する。
すなわち、直線Lqzと探索ラインVnとの交点Pyを基準として、ウィンドウW1を設定する。
図18は消失点学習手段106の処理を示す説明図であり、左右のレーンマーキング3、4に基づいて消失点(学習位置)Pzを学習して求める状態を示している。
図18において、消失点学習手段106は、車両の近傍で候補点抽出手段104により抽出された左右の候補点P1、P2(図4、図5、図9参照)の集合を直線近似し、候補点集合から導出した近似直線Lz1、Lz2(左右のレーンマーキング3、4に対応する)の交点を消失点Pzとして学習する。
次に、図16〜図18とともに、図19のフローチャートを参照しながら、図15に示したこの発明の実施の形態2に係る車線認識画像処理装置によるウィンドウWの設定処理について説明する。
図19において、ステップS20〜S22は、各基準手段131a〜131cを選択するための判定処理であり、ステップS23〜S26は、各ステップS20〜S22の判定結果に基づいてウィンドウWの基準位置を設定するための処理である。
ウィンドウ設定手段103Aは、まず、レーンマーキング数学的モデル式が存在するか否かを判定し(ステップS20)、レーンマーキング数学的モデル式が有る(すなわち、Yes)と判定されれば、モデル式基準手段131aを選択する。
すなわち、前述と同様に、レーンマーキング数学的モデル式から探索ラインVn上の位置を算出し、ウィンドウWの基準位置とする(ステップS23)。
一方、ステップS20において、レーンマーキング数学的モデル式が無い(すなわち、No)と判定されれば、続いて、候補点が2点以上抽出されたか否かを判定する(ステップS21)。
ステップS21において、候補点が2点以上抽出された(すなわち、Yes)と判定されれば、候補点基準手段131bを選択し、図16のように、候補点Pqと候補点Prを結ぶ直線Lqrと次の探索ラインVnとの交点Pxを基準位置とする(ステップS24)。
このとき、近傍から遠方に向かってレーンマーキング3を探索するものとして、最初に検出された候補点Pqと、次に検出された候補点Prとが存在するものとする。
一方、ステップS21において、候補点が2点以上抽出されていない(すなわち、No)と判定されれば、続いて、候補点が1点のみ抽出されたか否かを判定する(ステップS22)。
ステップS22において、候補点が1点のみ抽出された(すなわち、Yes)と判定されれば、消失点基準手段131cを選択し、図17のように、近傍の候補点Pqと消失点Pzとを結ぶ直線Lqzと次の探索ラインVnとの交点Pyを基準位置とする(ステップS25)。
この場合も、近傍から遠方に向かって探索を開始するものとして、最初に検出された候補点Pqが存在するものとする。
一方、ステップS22において、候補点が全く無い(すなわち、No)と判定されれば、撮影画面の全体からレーンマーキング3を探索する(ステップS26)。
以下、基準位置の設定ステップS23〜S26に続いて、たとえば左側のレーンマーキング3に対するウィンドウW1が設定される(ステップS27)。これら処理は、右側のウィンドウ4についても同様であり、ウィンドウW2が設定される。
次に、ステップS27で設定したウィンドウW1、W2により候補点P1、P2を抽出し(ステップS28)、現在処理中の探索ラインVnが最終ライン(n=N−1)か否かを判定する(ステップS29)。
ステップS29において、探索ラインVnが最終ラインである(すなわち、Yes)と判定されれば、図19の処理ルーチンを終了し、探索ラインVnが最終ラインでない(すなわち、No)と判定されれば、ステップS20に戻り、最終ラインに達するまで上記処理を繰り返す。
なお、消失点学習手段106は、図18のように、左右のレーンマーキング3、4の近似直線Lz1、Lz2から消失点Pzの学習座標を求めて消失点基準手段131cに入力し、ステップS25の基準位置設定処理に寄与している。
たとえば、候補点Pqが1点のみとなる状態以前に、近似直線Lz1、Lz2(図18参照)が得られるだけの候補点を抽出した状態があったとすると、消失点学習手段106は、近似直線Lz1、Lz2の交点の座標をローパスフィルタ処理して、最終的な消失点Pzの学習座標とする。
一方、候補点Pqが1点のみとなる状態以前に、近似直線Lz1、Lz2が得られる状態がなかった場合には、撮影画面内での消失点デフォルト位置(カメラ1(図2参照)の取り付け高さおよび仰角から算出される)を、消失点Pzとして代用する。
したがって、いずれの場合も確実に消失点Pzの学習座標が得られ、ステップS25においては、消失点Pzと最初に検出された候補点Pqとを結ぶ直線Lqzと、次の探索ラインVnとの交点Py(図17参照)を基準位置として設定することができる。
また、図19に示した一連の処理のうち、各判定ステップS21およびS22においては、候補点抽出ステップS28の処理結果が反映される。
すなわち、近傍から遠方に向かって探索を進めるにつれて、探索が正常に実行されていれば、ステップS28において抽出される候補点が増えるので、たとえばステップS22に注目すれば、ステップS26に分岐する状態からステップS25に分岐する状態に遷移するはずである。
同様に、ステップS21に注目すれば、ステップS25に分岐する状態からステップS24に分岐する状態に遷移するはずである。
ただし、ステップS25において消失点Pzおよび候補点Pqを用いる際に、道路曲率が比較的大きい場合には、特に遠方になるほど、消失点Pzと候補点Pqとを結ぶ直線Lqzとレーンマーキング3の形状とが合致しなくなる。
この対策として、たとえば、カメラ1の水平視野角を33[deg]、取り付け高さを1.2[m]とした場合、カメラ1から前方20m以内までの範囲を直線とみなせるものとし、ステップS25の処理(消失点Pzと候補点Pqとを結ぶ直線Lqzと探索ラインVnとの交点Pyを探索基準位置とする)の実行条件を、前方20m以内に限定するということが挙げられる。
このように、候補点が2点以上存在する場合には、2つの候補点Pq、Prを結ぶ直線Lqrと次の探索ラインVnとの交点Pxを基準位置に設定することにより、前回のレーンマーキング数学的モデル式(ウィンドウ設定基準)が無い状態(レーンマーキング3、4の見失い状態)においても、ウィンドウWをレーンマーキング3、4上に設定することができる。
また、このとき、近傍から遠方に向かって順に候補点を抽出する場合、できるだけ最遠方の2つの候補点を対象として順に抽出すれば、直線道路のみでなく、曲率を有する道路に対してもレーンマーキング3、4への追従性を向上させることができる。
さらに、適正なウィンドウ設定処理により、ウィンドウWが必要以上に広く設定されることが回避されるので、処理時間を短縮することができ、レーンマーキング3、4の見失い状態から認識状態への復帰を短時間で行うことができる。
また、候補点P1、P2の集合を直線近似し、左右のレーンマーキング3、4に対する近似直線Lz1、Lz2の交点から消失点Pzを学習することにより、レーンマーキング見失い状態にあって、候補点が1点のみである場合でも、候補点Pqと消失点Pzを結ぶ直線Pqzと次の探索ラインVnとの交点Pyを基準として、ウィンドウWをレーンマーキング3、4上に設定することができる。
特に、車両2(図2参照)が直線道路で横移動しても、道路と平行に走行している限りは、消失点Pzが移動しないので、ウィンドウWをレーンマーキング3、4上に確実に設定することができる。
さらに、前述と同様に、ウィンドウWを探索ラインVnごとに(近傍側から遠方側に向けて)順に設定し、1つ手前の抽出結果に基づいて次のウィンドウ位置を設定することにより、ウィンドウWの設定位置をレーンマーキング3、4上に確実に設定することができる。また、ウィンドウWのサイズを限定することにより、レーンマーキング3、4の見失い状態からの復帰時間を短縮することができる。
この発明の実施の形態1に係る車線認識画像処理装置の概略構成を示すブロック図である。 この発明の実施の形態1に係る車線認識画像処理装置を搭載した車両を示す外観図である。 図2内のカメラから出力される前方画像の一例を示す説明図である。 図3の前方画像における各レーンマーキングの候補点を示す説明図である。 図3の前方画像における複数の候補点を示す説明図である。 図5内の候補点の集合を近似した2次曲線(レーンマーキング数学的モデル式)を示す説明図である。 この発明の実施の形態1に係る原画像輝度分布に対するフィルタ処理結果を示す説明図である。 この発明の実施の形態1に係るフィルタ処理を示すフローチャートである。 この発明の実施の形態1に係る2値化手段による候補点の検出処理を示す説明図である。 この発明の実施の形態1に係るカーネルサイズ設定手段の処理を示す説明図である。 この発明の実施の形態1に係る近傍および遠方のフィルタ処理結果を示す説明図である。 この発明の実施の形態1に係る近傍および遠方のフィルタ処理結果に対して設定される閾値を示す説明図である。 この発明の実施の形態1に係るフィルタ処理結果に対する信号領域およびノイズ領域の判定処理を示す説明図である。 間欠的なレーンマーキングを示す説明図である。 この発明の実施の形態2に係る車線認識画像処理装置の概略構成を示すブロック図である。 この発明の実施の形態2に係る近傍の候補点2点に基づくウィンドウ設定処理を示す説明図である。 この発明の実施の形態2に係る近傍の候補点と消失点とに基づくウィンドウ設定処理を示す説明図である。 この発明の実施の形態2に係る消失点の学習処理を示す説明図である。 この発明の実施の形態2に係るウィンドウ設定処理を示すフローチャートである。
符号の説明
1 カメラ、2 車両、3、4 レーンマーキング、7、8 レーンマーキング数学的モデル式、20 ノイズ領域、101 撮影手段、102 画像記憶手段、103、103A ウィンドウ設定手段、131 基準位置設定手段、131a モデル式基準手段、131b 候補点基準手段、131c 消失点基準手段、104 候補点抽出手段、141 1次元画像フィルタ処理手段、141a カーネルサイズ設定手段、142 2値化手段、142a 閾値複数設定手段、142b S/N比演算手段、142c 閾値下限値設定手段、105 車線認識手段、106 消失点学習手段、d 2値化領域幅、D 原画像輝度分布、E フィルタ処理結果(T−Hフィルタ出力)、Lz1、Lz2 近似直線、Lqr 2点の候補点Pq、Prを結ぶ直線、Lqz 候補点Pqと消失点Pzとを結ぶ直線、P1、P2、Pq、Pr 候補点、Po 注目点、Pa、Pb 参照点、Pz 消失点、Px、Py 交点、Th、Tha、Thb 2値化閾値、Vn 探索ライン(探索走査線)、W、W1、W2 ウィンドウ、Δh カーネルサイズ。

Claims (6)

  1. 車両に搭載されて路面上のレーンマーキングの撮影画像に基づいて車線を認識する車線認識画像処理装置であって、
    前記車両の前方を撮影する撮影手段と、
    前記撮影手段により得られた画像を一時記憶する画像記憶手段と、
    前記画像記憶手段に記憶された画像に対して前記レーンマーキングの探索範囲をウィンドウにより設定するウィンドウ設定手段と、
    前記ウィンドウ設定手段により設定された前記探索範囲から前記レーンマーキングの候補点を抽出する候補点抽出手段と、
    前記候補点抽出手段により抽出された候補点の集合を数学的モデル式で近似して、レーンマーキング数学的モデル式を導出する車線認識手段と、を備え、
    前記候補点抽出手段は、
    前記車両からの前方距離に応じてカーネルサイズΔhを設定するカーネルサイズ設定手段と、
    注目画素の濃淡値g(h)と、探索走査方向の前後に前記カーネルサイズΔhだけ離れた画素の濃淡値g(h−Δh)、g(h+Δh)と、を用いた以下の2つの式、
    {g(h)−g(h−Δh)}、{g(h)−g(h+Δh)}
    から得られる値のうち、小さい方の値をフィルタ処理結果として出力する1次元画像フィルタ処理手段と、
    前記フィルタ処理結果を閾値により2値化する2値化手段と、
    を含むことを特徴とする車線認識画像処理装置。
  2. 前記2値化手段は、
    前記フィルタ処理結果のS/N比を演算するS/N比演算手段と、
    前記S/N比により前記閾値の下限値を設定する閾値下限値設定手段と、を含み、
    前記S/N比演算手段は、
    前記フィルタ処理結果のうち、規定値未満の領域幅を有するフィルタパス領域の数をノイズ領域数としてカウントし、
    前記フィルタ処理結果のうち、規定値以上の領域幅を有するフィルタパス領域の数を信号領域数としてカウントし、
    前記ノイズ領域数および前記信号領域数に基づいて前記S/N比を演算することを特徴とする請求項1に記載の車線認識画像処理装置。
  3. 前記撮影手段は、CMOS撮像素子により構成されたことを特徴とする請求項2に記載の車線認識画像処理装置。
  4. 前記2値化手段は、前記1次元画像フィルタ処理手段の探索走査線ごとに前記閾値を設定する閾値複数設定手段を含むことを特徴とする請求項1に記載の車線認識画像処理装置。
  5. 前記ウィンドウ設定手段は、候補点基準手段を含み、
    前記候補点基準手段は、前記候補点が2点以上存在する場合に、前記候補点のうちの2点を結ぶ直線と次の探索走査線との交点を基準として、前記ウィンドウを設定することを特徴とする請求項1に記載の車線認識画像処理装置。
  6. 前記レーンマーキングを構成する左右のレーンマーキングに基づいて消失点学習位置を求める消失点学習手段を備え、
    前記消失点学習手段は、前記候補点抽出手段により抽出された候補点の集合を直線近似し、前記左右のレーンマーキングの各近似直線の交点から消失点学習位置を求め、
    前記ウィンドウ設定手段は、消失点基準手段を含み、
    前記消失点基準手段は、前記候補点と前記消失点学習位置とを結ぶ直線と、次の探索走査線との交点を基準として、前記ウィンドウを設定することを特徴とする請求項1に記載の車線認識画像処理装置。
JP2004208738A 2004-07-15 2004-07-15 車線認識画像処理装置 Expired - Lifetime JP4437714B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004208738A JP4437714B2 (ja) 2004-07-15 2004-07-15 車線認識画像処理装置
US11/003,468 US7209832B2 (en) 2004-07-15 2004-12-06 Lane recognition image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004208738A JP4437714B2 (ja) 2004-07-15 2004-07-15 車線認識画像処理装置

Publications (2)

Publication Number Publication Date
JP2006031365A JP2006031365A (ja) 2006-02-02
JP4437714B2 true JP4437714B2 (ja) 2010-03-24

Family

ID=35600515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004208738A Expired - Lifetime JP4437714B2 (ja) 2004-07-15 2004-07-15 車線認識画像処理装置

Country Status (2)

Country Link
US (1) US7209832B2 (ja)
JP (1) JP4437714B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849505B2 (ja) * 2001-11-26 2006-11-22 株式会社デンソー 障害物監視装置及びプログラム
JP4496964B2 (ja) * 2005-01-14 2010-07-07 株式会社デンソー 車両用トンネル検出装置および車両用ライト制御装置
US7778199B2 (en) * 2005-02-19 2010-08-17 Cisco Technology, Inc. Techniques for customer self-provisioning of edge nodes for a virtual private network
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
JP4603421B2 (ja) * 2005-05-27 2010-12-22 本田技研工業株式会社 車両、画像処理システム、画像処理方法、及び画像処理プログラム
DE102005044979A1 (de) * 2005-09-20 2007-03-22 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Fahrspurmarkierungen
US7388475B2 (en) * 2006-01-19 2008-06-17 Gm Global Technology Operations, Inc. Lane departure warning and avoidance system with warning modification criteria
JP4769594B2 (ja) * 2006-02-20 2011-09-07 トヨタ自動車株式会社 道路区間線検出装置及び方法並びにプログラム
WO2008038370A1 (en) * 2006-09-28 2008-04-03 Pioneer Corporation Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium
JP4222411B2 (ja) * 2006-11-08 2009-02-12 日本電気株式会社 消失点検出システム、消失点検出方法および消失点検出用プログラム
US20090037039A1 (en) * 2007-08-01 2009-02-05 General Electric Company Method for locomotive navigation and track identification using video
US20110115912A1 (en) * 2007-08-31 2011-05-19 Valeo Schalter Und Sensoren Gmbh Method and system for online calibration of a video system
DE102008064115B4 (de) * 2008-12-19 2020-09-03 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Ermitteln eines Fluchtpunktes
DE102009007342A1 (de) * 2009-02-04 2010-08-05 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
US8396285B2 (en) * 2009-04-20 2013-03-12 Hewlett-Packard Development Company, L.P. Estimating vanishing points in images
JP4969628B2 (ja) * 2009-09-29 2012-07-04 本田技研工業株式会社 走行区分線検出装置
CN102201167B (zh) * 2010-04-07 2013-03-06 宫宁生 基于视频的汽车车道自动识别方法
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
JP5574235B2 (ja) * 2010-10-06 2014-08-20 スズキ株式会社 駐車枠検出装置及び駐車枠検出方法
DE102010050167B4 (de) * 2010-10-30 2012-10-25 Audi Ag Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
US8755589B2 (en) * 2011-09-06 2014-06-17 The Gates Corporation Measurement of belt wear through edge detection of a raster image
EP2629243A1 (de) * 2012-02-15 2013-08-21 Delphi Technologies, Inc. Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
KR101758684B1 (ko) * 2012-07-23 2017-07-14 한화테크윈 주식회사 객체 추적 장치 및 방법
JP5855756B2 (ja) * 2012-08-30 2016-02-09 本田技研工業株式会社 レーンマーク認識装置
CN102862574B (zh) * 2012-09-21 2015-08-19 上海永畅信息科技有限公司 基于智能手机实现车辆主动安全的方法
KR101268473B1 (ko) 2013-02-25 2013-06-04 주식회사 피엘케이 테크놀로지 기준 소실점 자동 보정 방법 및 그를 이용한 영상 인식 장치
US9098914B2 (en) 2013-03-11 2015-08-04 Gates Corporation Enhanced analysis for image-based serpentine belt wear evaluation
US8972093B2 (en) * 2013-04-08 2015-03-03 Toyota Motor Engineering & Manufacturing North America, Inc. Lane-based localization
KR101906951B1 (ko) * 2013-12-11 2018-10-11 한화지상방산 주식회사 차선 검출 시스템 및 차선 검출 방법
KR101517181B1 (ko) * 2014-02-28 2015-05-04 주식회사 코아로직 차선 이탈 경보 시스템 및 방법
JP6348758B2 (ja) 2014-04-15 2018-06-27 本田技研工業株式会社 画像処理装置
CN106233327B (zh) * 2014-04-23 2019-11-19 皇家飞利浦有限公司 去噪图像数据中对低对比度结构的恢复
JP6265095B2 (ja) * 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
DE102015117535A1 (de) * 2014-10-17 2016-04-21 Hyundai Mobis Co., Ltd. Vorrichtung und Verfahren zur Fahrerassistenz
KR102270677B1 (ko) 2015-01-13 2021-06-29 현대모비스 주식회사 차량 안전 주행 장치
CN111380545A (zh) * 2015-02-10 2020-07-07 御眼视觉技术有限公司 用于自主车辆导航的方法、服务器、自主车辆以及介质
CN105654064A (zh) * 2016-01-25 2016-06-08 北京中科慧眼科技有限公司 车道线检测方法和装置及高级驾驶辅助系统
CN110809767B (zh) * 2017-07-06 2022-09-09 华为技术有限公司 高级辅助驾驶系统和方法
US20200062252A1 (en) * 2018-08-22 2020-02-27 GM Global Technology Operations LLC Method and apparatus for diagonal lane detection
CN109214334B (zh) * 2018-09-03 2020-12-29 百度在线网络技术(北京)有限公司 车道线处理方法和装置
CN109491384B (zh) * 2018-11-14 2022-04-19 哈工大机器人(合肥)国际创新研究院 一种道路划线数据的获取方法及装置
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
US10929692B2 (en) * 2019-02-06 2021-02-23 Veoneer Us Inc. Lane level position determination
EP3786012A1 (en) 2019-08-29 2021-03-03 Zenuity AB Lane keeping for autonomous vehicles
KR102296520B1 (ko) * 2020-12-18 2021-09-01 주식회사 카비 단안 카메라를 이용한 경로추정에 의한 곡선차선 검출 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3083918B2 (ja) * 1992-06-26 2000-09-04 本田技研工業株式会社 画像処理装置
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3260503B2 (ja) * 1993-08-19 2002-02-25 株式会社東芝 走路認識装置および走路認識方法
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
JP3357749B2 (ja) * 1994-07-12 2002-12-16 本田技研工業株式会社 車両の走行路画像処理装置
IT1284976B1 (it) * 1996-10-17 1998-05-28 Sgs Thomson Microelectronics Metodo per l'identificazione di strisce segnaletiche di corsie stradali
JP3619628B2 (ja) * 1996-12-19 2005-02-09 株式会社日立製作所 走行環境認識装置
JPH10320549A (ja) 1997-05-15 1998-12-04 Mitsubishi Electric Corp 画像フィルタ
JP3733875B2 (ja) * 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
US7184073B2 (en) * 2003-04-11 2007-02-27 Satyam Computer Services Limited Of Mayfair Centre System and method for warning drivers based on road curvature
US7430337B2 (en) * 2004-01-06 2008-09-30 Sharp Laboratories Of America, Inc. System and method for removing ringing artifacts

Also Published As

Publication number Publication date
US7209832B2 (en) 2007-04-24
JP2006031365A (ja) 2006-02-02
US20060015252A1 (en) 2006-01-19

Similar Documents

Publication Publication Date Title
JP4437714B2 (ja) 車線認識画像処理装置
US9818301B2 (en) Lane correction system, lane correction apparatus and method of correcting lane
US8005266B2 (en) Vehicle surroundings monitoring apparatus
JP4622001B2 (ja) 道路区画線検出装置および道路区画線検出方法
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
JP3780922B2 (ja) 道路白線認識装置
JP4584120B2 (ja) 道路区画線検出装置、道路区画線の検出方法、道路区画線の検出プログラム
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP4157620B2 (ja) 移動物体検出装置及びその方法
US20090010482A1 (en) Diagrammatizing Apparatus
EP1909230A1 (en) Vehicle and lane mark recognition apparatus
JP4568637B2 (ja) 道路認識装置
US10148938B2 (en) Vehicle-mounted image recognition device to set a stereoscopic-vision and monocular-vision image areas
JP2007179386A (ja) 白線認識方法及び白線認識装置
JP2005182303A (ja) 車線認識画像処理装置
CN103366155A (zh) 通畅路径检测中的时间相干性
JP2015148887A (ja) 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP2010061375A (ja) 物体認識装置及びプログラム
JP2009134591A (ja) 車色判定装置、車色判定システム及び車色判定方法
US10997743B2 (en) Attachable matter detection apparatus
CN112784671A (zh) 障碍物检测装置及障碍物检测方法
KR101603293B1 (ko) 차선인식방법
JP5056931B2 (ja) 車色判定装置、車色判定システム及び車色判定方法
JP4842301B2 (ja) 歩行者検出装置及びプログラム
JP2007140828A (ja) 標識認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4437714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250