JP2018116369A - 車線認識装置 - Google Patents

車線認識装置 Download PDF

Info

Publication number
JP2018116369A
JP2018116369A JP2017005348A JP2017005348A JP2018116369A JP 2018116369 A JP2018116369 A JP 2018116369A JP 2017005348 A JP2017005348 A JP 2017005348A JP 2017005348 A JP2017005348 A JP 2017005348A JP 2018116369 A JP2018116369 A JP 2018116369A
Authority
JP
Japan
Prior art keywords
lane
line
unit
parameter
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017005348A
Other languages
English (en)
Inventor
泰樹 河野
Yasuki Kono
泰樹 河野
直輝 川嵜
Naoteru Kawasaki
直輝 川嵜
直己 二反田
Naoki Nitanda
直己 二反田
健太 保木
Kenta Hogi
健太 保木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2017005348A priority Critical patent/JP2018116369A/ja
Priority to US15/871,706 priority patent/US10685242B2/en
Publication of JP2018116369A publication Critical patent/JP2018116369A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】境界線として認識すべき区画線が擦れなどにより部分的に消えている場合などに車線を認識できない。【解決手段】検出した線候補に基づいて、区画線の道路形状を表すのに有利な度合いであるパラメータを少なくとも1つ抽出し、抽出したパラメータを集計した結果から相対的により道路形状を表すのに有利な線である区画線を基準線として選択する。選択した基準線との差分距離に基づいて、車線境界線の位置を推定し、推定した車線境界線の位置を道路形状として出力する。【選択図】図4

Description

本開示は、車線の境界を認識する車線認識装置の技術に関する。
車両が車線から逸脱しそうな場合に、警報を発生する車線逸脱警報装置等に利用するために、搭載したカメラで自車の前方を撮影し、自車が走行する車線の境界を示す路面標示を認識する車線認識装置が知られている。
例えば特許文献1には、路面上に標示された区画線を認識し、車線境界を認識するという技術が提案されている。
特開2003−178399号公報
しかしながら、特許文献1に記載の方法では、境界線として認識すべき区画線が擦れなどにより部分的に消えている場合などに車線を認識できないという問題があった。
本開示は、境界線として認識すべき区画線が擦れなどにより認識できなくなった場合にも車線を認識する技術を提供する。
本開示の一態様は、車線認識装置であって、画像取得部及び画像処理部を備える。また画像処理部は、区画線認識部、パラメータ抽出部、多重線判定部、基準線選択部、線間測定部、線間記憶部及び境界推定部を備える。
画像取得部は、車両に備えられた撮像装置により撮像された撮像画像をあらかじめ設定された車線認識サイクルごとに繰り返し取得する。
画像処理部は、画像取得部により撮像画像が取得されるごとに、取得された撮像画像に存在する道路に描かれた少なくとも1つの区画線に基づいて車線境界線の位置を設定する。
区画線認識部は、画像取得部により取得された画像に存在する道路に描かれた少なくとも1つの区画線を認識する。
パラメータ抽出部は、区画線認識部により認識された区画線それぞれについて、当該区画線が道路形状を推定するのに有利である度合いを表し有利であるほど大きな値となる、少なくとも1つの区画線パラメータを抽出する。
多重線判定部は、区画線認識部により認識された区画線が他の区画線と多重線を構成するか否か判定する。
基準線選択部は、多重線判定部により区画線が多重線を構成していると判定された場合、パラメータ抽出部により抽出された当該区画線パラメータに基づいて多重線のうち道路形状を推定するに当たって相対的により有利である区画線を基準線として選択する。
線間測定部は、多重線判定部により多重線を構成すると判定された複数の区画線の区画線同士の間の距離である線間距離を測定する。
線間記憶部は、線間測定部により測定された線間距離を記憶する。
境界推定部は、基準線選択部により選択された基準線が車線境界線以外の線である場合に、線間記憶部に記憶された境界線と基準線との線間距離である差分距離だけ基準線選択部により選択された基準線の位置からずらした位置を車線の境界の位置として推定する。
このような構成によれば、境界線として認識すべき区画線が擦れなどにより認識できなくなった場合にも車線を認識することができ、これにより車両の走行する車線を認識する精度を向上することができる。
車両制御装置の構成を表すブロック図である。 車載カメラの路面撮像範囲を表した図である。 車載カメラの設置位置を表した図である。 車線認識処理のフローチャートである。 車載カメラにより撮像される区画線の図である。 車載カメラにより撮像された区画線のエッジ点を表した図である。 車載カメラにより撮像された区画線のエッジ線を表した図である。 車載カメラにより撮像された区画線のエッジ点に対してハフ変換を用いて算出された線を表した図である。 遠点パラメータの算出方法を表した図である。 自車が走行する道路の区画線を表した図である。 車線境界設定処理のフローチャートである。 自車の左右それぞれに多重線が存在しない場合を表した図である。 基準線選択処理のフローチャートである。 車線境界線決定処理のフローチャートである。 一部の区画線が擦れ等により消えている状態を表す図である。 一部の区画線が道路の途中で消えている状態を表す図である。 変形例における車線境界線の認識を表した図である。
以下、図面を参照しながら、本開示の実施形態を説明する。
[実施形態]
[1.構成]
図1に示す車両制御システム1は、撮像装置10、センサ群20、車線認識装置30及び車両制御装置40を備える。なお、以下、当該車両制御システム1が搭載される車両を自車とする。
撮像装置10は、CCDやCMOSなどの撮像素子を二次元的に配置してなるイメージセンサを用いて構成された周知のCCDカメラまたはCMOSカメラからなり、あらかじめ設定された撮像周期ごとに、自車前方を撮像した撮像画像を車線認識装置30に供給するように構成されている。また、撮像装置10により撮像される撮像画像は色が判別できるカラーの画像とする。なお、撮像装置10は例えば図2に示すような自車前方の路面を撮像する範囲が路面撮像範囲となるように、図3に示すように自車のルームミラー近くに設置される。
センサ群20は、車速センサ及びヨーレートセンサを少なくとも含み、自車の位置及び自車の速度などの挙動を検出する。なお、センサ群20としては、前述の車速センサ,ヨーレートセンサの他に、例えば、ピッチ角センサ、ステアリング角センサ等を更に用いてもよい。また、センサ群20で検出された自車の位置及び挙動は、後述するメモリ32に記憶される。
車両制御装置40は、車線認識装置30からの出力に応じて自車の制御を行う。ここでいう自車の制御とは、具体的には例えば、警報音などにより自車のドライバに報知を行う制御や、ハンドルを制御する等の周知のレーンキーピングを行う制御が挙げられる。
車線認識装置30は、CPU31と、RAM、ROM及びフラッシュメモリ等の半導体と、を有する周知のマイクロコンピュータを中心に構成される。車線認識装置30の各種機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ32が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、車線認識装置30を構成するマイクロコンピュータの数は1つでも複数でもよい。
車線認識装置30は、CPU31がプログラムを実行することで後述する車線認識処理を実現する。車線認識装置30の各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。
[2.処理]
次に車線認識装置30が実行する車線認識処理について、図4のフローチャートを用いて説明する。なお、車線認識処理は、自車のイグニッションスイッチがオンされると開始され、オフされるまでの間、繰り返し行われる。なお以下、繰り返し行われる車線認識処理のサイクルを車線認識サイクルという。
S110で、車線認識装置30は、撮像装置10により撮像された撮像画像を取得する。取得された撮像画像に含まれる区画線を表した例を図5に示す。
S120で、車線認識装置30は、エッジ点の抽出を行う。ここでいうエッジ点は、区画線とそれ以外の部分との境目の点を表す。エッジ点を抽出する方法は、具体的には、図6に示すように、撮像画像における隣接する画素の輝度の差分であるエッジ強度の絶対値があらかじめ決められた閾値である強度閾値以上である点をエッジ点Epとして認識することにより行われる。ここで、各エッジ点Epにおけるエッジ強度は、メモリ32に記憶される。なお、エッジ点のうち、撮像画像を左から右に走査した際に、輝度値が低い画素から輝度値が高い画素に変化するアップエッジ点と、輝度値が高い画素から輝度値が低い画素に変化するダウンエッジ点とする。また、車線認識装置30は、アップエッジ点と、そのアップエッジ点に対して右側に位置し、かつ、そのアップエッジ点に最も近い位置のダウンエッジ点とをペアとする。
S130で、車線認識装置30は、エッジ線の算出を行う。具体的には、図7に示すように、S120で抽出したエッジ点からあらかじめ設定された範囲であるエッジ点範囲に存在する他のエッジ点を検出し、当該エッジ点を結んだ線であるエッジ線Elを算出する。なお、エッジ点範囲は、例えば、画素2つ分の範囲をいう。
S140で、車線認識装置30は、線候補の算出を行う。ここでいう線候補とは、エッジ線を構成するエッジ点に対してハフ変換を行うことにより算出された線Htである。なお、ハフ変換は、直線や曲線などの関数で表現される図形を画像中から抽出する周知の手法である。線候補は、図8に示す線Htのようにエッジ点の分布に沿った線で表される。
S150で、車線認識装置30は、線候補と他の線候補とのペアを設定する。具体的には、ある線候補を構成するエッジ点とペアをなすエッジ点により構成される線候補とを1つの区画線を表す線候補ペアとして設定する。
また、車線認識装置30により認識された各線候補、各線候補ペア、区画線及びそれらの特徴をメモリ32に記憶する。ここでメモリ32に記憶される特徴は、例えば、各線候補の曲率、各線候補に属するエッジ点の数、各線候補ペアの表す区画線の色、各線候補の遠点距離、各線候補ペアの表す区画線の線間距離及び自車と各線候補との位置関係である。
ここでいう各線候補ペアの表す区画線の色は、各線候補ペアを構成する線候補同士の間に存在する画素の色度から求められる。また、ここでいう遠点距離とは、線候補が取得された撮像画像の表す空間において、線候補が認識される最も遠い位置を遠点位置とすると、自車から遠点位置までの距離をいう。具体的には、例えば図9に示すような撮像画像における各線候補に属するエッジ点のうち、画像中で最も高い位置に属するエッジ点の位置を遠点位置とし、撮像画像の下端から遠点位置までの距離を遠点距離とする。また、各線候補の曲率は、例えば線候補のエッジ点の位置関係に当てはまる円を探索することにより算出されてもよい。その円の探索は、例えば最小二乗法などの周知の方法により求められてもよい。
さらに、ここでいう自車と各線候補との位置関係とは、自車の中心位置と検出された各線候補との車幅方向の距離をいう。また、線候補ペアを構成する線候補のうち、自車により近い線候補の位置が区画線の位置として設定される。また、自車と区画線との位置関係とは、自車の中心位置と区画線の位置との車幅方向の距離をいう。さらに、ここでいう区画線の線間距離は、その区画線位置同士の車幅方向に沿った距離をいう。具体的には、図10に示すように認識された隣り合う区画線を表す線候補ペアLa1〜La5の同士の距離D1〜D3が線間距離となる。
S160で、車線認識装置30は、車線境界の設定を行う。車線境界の設定の詳細については後述する。
S170で、車線認識装置30は、自車線の選択を行う。すなわち、S160で設定された車線境界線のうち、自車の左右それぞれについて最も近い車線境界線同士の間を自車の走行する自車線として選択する。
S180で、車線認識装置30は、道路形状の出力を行う。すなわちS170で選択された自車線の車線境界線の形状を道路形状として出力する。
なお、S110での処理が画像取得部としての一例に相当し、S120での処理がエッジ抽出部としての一例に相当し、S150での処理が線候補算出部、距離測定部、曲率算出部、曲率記憶部及び関係検出部としての一例に相当し、S120からS150までの処理が区画線認識部としての一例に相当し、S120からS160までの処理が画像処理部としての一例に相当する。
<車線境界設定処理>
ここで、車線認識装置30が先のS160で実行する車線境界設定処理の詳細を、図11に示すフローチャートに沿って説明する。なおS210からS230までのステップを特徴抽出サイクルといい、S240からS260までのステップをグループ化サイクルといい、S270からS330までのステップを境界線決定サイクルという。
S210で、車線認識装置30は、線候補ペアが表す区画線のうち1つの区画線を選択する。ここで選択される区画線は、前回までの特徴抽出サイクルにおいてS210で選択されていない区画線である未抽出区画線の中から選択される。
S220で、車線認識装置30は、S210で選択された区画線に対して、線特徴の抽出を行う。ここでいう線特徴とは、S210で選択された区画線の線種及び色度をいう。ここでいう線種は、実線や破線などの区画線の形状をいう。線種は、例えば線候補ペアにおいて、線候補ペアを構成する線候補に沿った方向に、線候補に属するエッジ線が存在する間隔により判断される。線の色は、線の色度に基づいて判定される。また、車線認識装置30により判定された区画線の線種及び算出された区画線の色度はメモリ32に記憶される。
S230で、車線認識装置30は、未抽出区画線が存在するか否かを判定する。
S230で、未抽出区画線が存在すると判定された場合、S210に処理を移行し、以降の処理を行う。
S230で、未抽出区画線が存在しないと判定された場合、S240に処理を移行し、以降の処理を行う。
S240で、1つの区画線を選択する。ここで選択される区画線は、前回までのグループ化サイクルにおいて、S240で選択されていない区画線である未グループ化区画線の中から選択される。
S250で、車線認識装置30は、区画線のグループ化を行う。具体的には、S240で選択された区画線の位置から車幅方向のあらかじめ決められた範囲内に他の区画線が存在する場合、それらの区画線を同一の区画線グループに設定する。S240で選択された区画線の位置から車幅方向のあらかじめ決められた範囲内であるグループ範囲内に他の区画線が存在しない場合、S240で選択された区画線を区画線グループに設定する。すなわち、区画線グループ内に存在する区画線が1つであるグループが設定される。ここでいうあらかじめ決められた範囲内とは、例えば区画線の横幅の3倍程度の範囲など、多重線や複合線であるかと一重線であるかとを区別できる範囲であればよい。また、区画線の位置は、区画線を構成する線候補の位置を区画線の位置として設定してもよい。
S260で、車線認識装置30は、未グループ化区画線が存在するか否かを判定する。
S260で、未グループ化区画線が存在すると判定された場合、S240に処理を移行し、以降の処理を行う。
S260で、未グループ化区画線が存在しないと判定された場合、S270に処理を移行し、以降の処理を行う。
S270で1つの区画線グループを選択し、選択グループとして設定する。ここで、選択グループは、前回までの境界線決定サイクルにおいてS210で選択されていない区画線グループである未選択グループから選択される。
S280で、車線認識装置30は、選択グループ内に複数の区画線が存在するか否かの判定を行う。
S280で、選択グループ内に複数の区画線が存在しないと判定した場合、すなわち、選択グループを構成する区画線が1つであると判定した場合、車線認識装置30はS290に処理を移行する。
S280で、選択グループ内に複数の区画線が存在すると判定した場合、車線認識装置30はS300に処理を移行する。
S290で、車線認識装置30は、選択グループを構成する区画線を車両境界線として決定する。具体的には例えば図12に示すような道路において一定の車幅方向の範囲内であるグループ範囲内に他の区画線が存在しない選択区画線Lb1及び選択区画線Lb2はそれぞれ車線境界線として決定される。車線認識装置30はS290の後、S330に処理を移行する。
S300で、車線認識装置30は、選択グループに含まれる複数の区画線を選択多重線として設定し、選択多重線を構成する区画線同士の車幅方向の距離を線間距離として取得する。
S310で、車線認識装置30は、選択多重線を構成する区画線のうち、道路形状を推定するに当たって相対的により有利である線を基準線として選択する。道路形状を推定するに当たって相対的により有利である線とは、例えば曲率の変化が小さいなどである。基準線の選択の詳細については後述する。
S320で、車線認識装置30は、選択多重線を構成する区画線の線種に基づき、車線境界を決定する。車線境界の決定の詳細については後述する。
S330で、今回までの設定サイクルにおいてS270で選択されていないグループである未選択グループが存在するか否かを判定する。
S330で今回までの設定サイクルにおいて未選択グループが存在すると判定された場合、S270に戻り、以降の処理を行う。
S330で今回までの設定サイクルにおいて未選択グループが存在しないと判定された場合、処理を終了する。なお、S220での処理が線特徴抽出部及び色度測定部に相当し、S280での処理が多重線判定部に相当し、S300での処理が線間測定部及び線間記憶部に相当し、S310での処理が基準線選択部に相当する。
<基準線選択処理>
ここで車線認識装置30が先のS310で実行する基準線選択処理の詳細を、図13に示すフローチャートに沿って説明する。なお、以下パラメータの算出及び集計は、認識された区画線ごと、すなわち、S270で選択された選択多重線を構成する区画線それぞれに対して行われる。
S410で、車線認識装置30は、区画線それぞれに含まれるエッジ点数に基づいてエッジ点数パラメータの算出を行う。ここでいうエッジ点数パラメータは、例えば、あらかじめエッジ点数の最大値を設定し、設定されたエッジ点数の最大値に対する検出されたエッジ点の数の割合をパラメータとして算出する。ここでいうエッジ点数とは、1つの区画線を構成するエッジ点の数のことであり、エッジ点数の最大値とは、1つの区画線を構成するエッジ点の数の想定しうる最大値のことである。なおここで、区画線に含まれるエッジ点数は、S120で車線認識装置30によりメモリ32に記憶されるエッジ点数をいう。
S420で、車線認識装置30は、区画線それぞれに含まれるエッジ強度に基づいてエッジ強度パラメータの算出を行う。ここでいうエッジ強度パラメータとは、例えば、あらかじめエッジ強度の最大値を設定し、設定されたエッジ強度の最大値に対する検出されたエッジ強度の割合をパラメータとして算出する。ここでエッジ強度は、S120でメモリ32に記憶された強度をいう。また、エッジ強度の最大値とは、例えば画素の取り得る輝度の最大値と画素の取り得る輝度の最小値の差分をいう。1つの線を構成するエッジ点が複数存在する場合には、エッジ点それぞれにおけるエッジ強度の値を平均したものを当該区画線のエッジ強度として算出してもよい。
S430で、車線認識装置30は、区画線それぞれの遠点距離に基づいて認識長パラメータの算出を行う。具体的には、例えば図9に示すように撮像画像の下端から撮像画像における消失点までの長さを最大認識長とする。このとき、遠点パラメータは、最大認識長に対する遠点距離の割合としてもよい。ここでいう遠点距離は、S150でメモリ32に記憶された遠点距離をいう。
S440で、車線認識装置30は、区画線それぞれの認識が継続されている距離である継続距離に基づいて、継続距離パラメータの算出を行う。ここでいう継続距離パラメータとは、例えば、ある一定の距離をあらかじめ基準距離として設定し、その基準距離に対する認識された区画線の継続距離の割合を継続距離パラメータとして算出する。ここでいう継続距離とは、区画線それぞれが認識されている間に車両が走行した距離のことである。当該継続距離はS150でメモリ32に各区画線が記憶され始めた時刻から現在までの時間及びセンサ群20により検出される車速から導き出される。
S450で、車線認識装置30は、区画線それぞれの色に基づいて、色度パラメータ及び色種類パラメータの算出を行う。ここでいう色度パラメータとは、例えば、各区画線の色度のばらつきの逆数を色度パラメータとして算出する。またここでいう色種類パラメータとは、S150で求められた区画線の色の種類があらかじめ設定された色の種類と一致するほど大きな値となる。すなわち、例えば橙色に比べ白色である方が、道路形状を推定するに当たって相対的により有利であると判断するように設定してもよい。具体的には、S220でメモリ32に記憶された区画線の色の種類が白色である場合に、橙色よりも高い色度パラメータを算出するよう設定してもよい。さらにここでいう色度は、S220でメモリ32に記憶された色度をいう。
S460で、車線認識装置30は、区画線の線種に基づいて、線種パラメータの算出を行う。ここでいう区画線の線種は、S220でメモリ32に記憶された区画線の線種をいう。ここでいう線種パラメータとは、例えば区画線の線種として想定される実線や破線などの形状それぞれにパラメータを割り当て、検出された区画線の線種がいずれに該当するかによってパラメータを算出する。ここで割り当てられるパラメータとしては、実線が破線よりも高いパラメータになるものであってもよい。
S470で、車線認識装置30は、S150でメモリ32に記憶された自車と区画線との位置関係に基づいて、位置関係パラメータの算出を行う。また、ここでいう位置関係パラメータとは、例えば自車の中心位置と自車と区画線との位置関係によって位置関係パラメータを算出する。位置関係パラメータは例えば、自車の中心位置に存在する区画線を最大とし、車幅方向に離れるほど小さくなる値としてもよい。
S480で、車線認識装置30は、区画線の曲率に基づいて、曲率パラメータの算出を行う。ここでいう区画線の曲率は、S150でメモリ32に記憶される区画線の曲率をいう。また、ばらつきパラメータの算出方法は、例えば区画線の曲率のばらつきが0の状態を最大として、今回以前のあらかじめ決められた回数分の車線認識サイクルにおいて測定された同一の区画線の曲率のばらつきの大きさの割合をばらつきパラメータとして算出する。具体的には曲率のばらつきの逆数をばらつきパラメータとして算出してもよい。
S490で、車線認識装置30は、S410からS480までのステップで算出したパラメータの集計を行う。ここで行われるパラメータの集計はそれぞれのパラメータを加算することにより求められてもよいし、乗算することにより求められるものであってもよい。また、それぞれのパラメータに対して重み付けを行ってもよい。さらに、ここで重み付けに用いられる重みは、各パラメータの重要度に応じた値であってもよい。また、集計を行うパラメータは、算出した複数のパラメータのうち、一部についてのみ行うものであってもよい。
S500で、車線認識装置30は、S490で区画線ごとに集計したパラメータが相対的に高い区画線を基準線として選択する。
以上に示した基準線選択処理により、検出された区画線のうち、道路形状を推定するに当たって相対的により有利である区画線である基準線が決定される。なお、本実施形態における各種パラメータが区画線パラメータに相当する。S410からS490までの処理がパラメータ抽出部に相当し、S440での処理が継続測定部に相当する。
<車線境界線決定処理>
ここで、車線認識装置30が先のS320で実行する車線境界線決定処理の詳細を図14に示すフローチャートに沿って説明する。
S510で、車線認識装置30は、S310で選択された基準線の位置を取得する。
S520で、車線認識装置30は、S270で設定された選択グループに車線境界線が存在するか否かを判定する。ここで、選択グループに車線境界線が存在するか否かは、選択グループを構成する区画線の線種に基づいて判定される。ここでいう線種はS220でメモリ32に記憶された区画線の線種をいう。具体的には、選択グループを構成する区画線の線種それぞれに対してあらかじめ記憶された中央線などの車線境界線の形状と合致するか否かを判定することにより車線境界線であるか否かを判定する。
S520で、車線境界線が存在すると判定された場合には、車線認識装置30は、S530に処理を移行する。
S530で、車線認識装置30は、S520で車線境界線と判定された線を車線境界線として決定する。
S540で、車線認識装置30は、S510で取得した基準線とS530で決定された車線境界線との線間距離を差分距離としてメモリ32に記憶する。ここでいう線間距離はS300で取得される線間距離をいう。
S520で、車線境界線が存在しないと判定された場合には、車線認識装置30は、S550に処理を移行する。
S550で、車線認識装置30は、前回までの車線境界線決定処理においてS540でメモリ32に記憶された差分距離とS510で取得した基準線の位置とに基づいて、車線境界線の位置を推定する。すなわち、基準線の位置から差分距離だけ変位した位置に車線境界線が存在するものと推定する。例えば、図15に示すように、自車の走行する車線の右側における車線境界線La4が擦れなどにより消えている場合、基準線を区間線La5とすると、区間線La5の位置及び差分距離D3から車線境界線La4の位置が求められる。
なお、S550が境界推定部に相当する。
以上に示した車線境界線決定処理により、道路形状を表す車線境界線の位置が決定される。
[3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)本実施形態の車線認識装置によれば、基準線の位置をメモリ32に記憶し、選択グループ内に車線境界線が存在しないと判定された場合、記憶された差分距離と基準線の位置とに基づいて、車線境界線の位置を推定する。基準線は検出された区画線のうち、道路形状を推定するに当たって相対的により有利である区画線が選ばれるため、車線境界線の位置を推定する精度を向上することができる。また、出力される道路形状は、車線境界線の位置により表されるので、出力される道路形状の推定精度が向上することができる。例えば、図16に示すように、区画線La2及び区画線La5を基準線とした際に、車線境界線La1及び車線境界線La4が擦れ等により消えても、区画線La2及び差分距離D1により車線境界線La1の位置を、区間線La5及び差分距離D3により車線境界線La4の位置を求めることができる。また、メモリ32に記憶された差分距離から車線境界線の位置を推定し、推定した車線境界線の位置を道路形状として出力するので、車線境界線が擦れなどにより消えた場合にもメモリ32に記憶された差分距離から車線境界線の位置を推定することができる。
(1b)また、本実施形態の車線認識装置によれば、道路形状の推定の信頼性を向上させることができる。すなわち、本実施形態では、上述したように、区画線ごとに集計したパラメータが相対的に高い区画線を基準線として選択する。言い換えると、基準線を選択するに際し、上述した曲率や認識距離などの複数のパラメータを用いて総合的に判断するため、1つのパラメータを用いて判断する場合に比べ、より安定した値を用いて基準線を選択することができる。また、仮に区画線のパラメータのすべてが読み取れる場合でなくても、基準線を選択することができるため、パラメータが1つである場合に比べ、信頼性を向上させることができる。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(2a)上記実施形態の車線認識装置によれば、エッジ線の算出は抽出したエッジ点からあらかじめ設定されたエッジ点範囲以下の範囲に存在する他のエッジ点を検出し、当該エッジ点を結んだ線であるエッジ線Elを算出する。しかし、エッジ線の算出方法はこれに限定されるものではない。例えばセグメンテーションによって、エッジ線を算出するとしてもよい。ここでいうセグメンテーションとは、例えば、隣接する2つのエッジ点を線で結び、あらかじめ決められた範囲内のその線を延長した方向に別のエッジ点が存在した場合に、そのエッジ点を含めて新たにエッジ線を構成する。このようにとしてエッジ線を求めてもよい。また、例えば線候補の算出と同様、エッジ点同士に対してハフ変換を行うことによってエッジ線を算出してもよい。
(2b)上記実施形態の車線認識装置によれば、基準線の位置に基づいて車線境界線を認識したが、これに限定されるものではない。車線境界線の位置と特定の地物との位置関係があらかじめ決まっている場合には、特定の地物の位置を認識し、認識した地物の位置を基準線の位置とみなし、当該地物の位置に基づいて車線境界の位置を設定してもよい。このような方法によれば、例えば図17のように特定の地物の位置として、車線の端に存在する壁の位置Waを用いた場合、区画線に比べ、擦れなどにより消える可能性が低く、道路形状と関連しているため、車線境界線を認識する精度を向上させることができる。
(2c)また、この場合において、基準線と特定の地物の位置との少なくとも一方に基づいて車線境界の位置を求めても良い。さらにこの際、車線境界線の位置を、基準線と特定の地物との位置のうちどちらを優先するかを重み付けしてもよい。
(2d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
(2e)上述した車線認識装置の他、当該車線認識装置を構成要素とするシステム、当該車線認識装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、車線認識方法など、種々の形態で本開示を実現することもできる。
1…車両制御システム、2…画素、10…撮像装置、20…センサ群、30…車線認識装置、31…CPU、32…メモリ、40…車両制御装置。

Claims (8)

  1. 車両に備えられ、車線の境界を認識する車線認識装置であって、
    前記車両に備えられた撮像装置により撮像された撮像画像をあらかじめ設定された車線認識サイクルごとに繰り返し取得するように構成された画像取得部と、
    前記画像取得部により前記撮像画像が取得されるごとに、取得された前記撮像画像に存在する道路に描かれた少なくとも1つの区画線に基づいて車線境界線の位置を設定するように構成された画像処理部と、を備え、
    前記画像処理部は、
    前記画像取得部により取得された画像に存在する道路に描かれた少なくとも1つの区画線を認識するように構成された区画線認識部と、
    前記区画線認識部により認識された区画線それぞれについて、当該区画線が道路形状を推定するのに有利である度合いを表し有利であるほど大きな値となる、少なくとも1つの区画線パラメータを抽出するように構成されたパラメータ抽出部と、
    前記区画線認識部により認識された区画線が他の区画線と多重線を構成するか否か判定するように構成された多重線判定部と、
    前記多重線判定部により区画線が多重線を構成していると判定された場合、前記パラメータ抽出部により抽出された当該区画線パラメータに基づいて多重線のうち道路形状を推定するに当たって相対的により有利である区画線を基準線として選択するように構成された基準線選択部と、
    前記多重線判定部により多重線を構成すると判定された複数の区画線の区画線同士の間の距離である線間距離を測定するように構成された線間測定部と、
    前記線間測定部により測定された前記線間距離を記憶するように構成された線間記憶部と、
    前記基準線選択部により選択された基準線が車線境界線以外の線である場合に、前記線間記憶部に記憶された前記境界線と前記基準線との前記線間距離である差分距離だけ前記基準線選択部により選択された基準線の位置からずらした位置を前記車線の境界の位置として推定するように構成された境界推定部と、
    を備える、車線認識装置。
  2. 請求項1に記載の車線認識装置であって、
    前記パラメータ抽出部は、複数の前記区画線パラメータを抽出し、
    前記基準線選択部は、前記パラメータ抽出部により抽出された複数の区画線パラメータの値を区画線パラメータそれぞれの重要度に応じて設定された重みを用いて重み付け加算した値を用いて、前記基準線を選択する、車線認識装置。
  3. 請求項1又は請求項2に記載の車線認識装置であって、
    前記区画線認識部により認識された前記区画線ごとに、当該区画線の認識に用いた前記画像における点のうち、前記車両から最も遠くに位置するものを遠点として、前記車両から当該遠点までの距離である遠点距離を求める距離測定部を更に備え、
    前記パラメータ抽出部は、前記距離測定部により求められた前記遠点距離が長いほど大きな値となる遠点パラメータを、前記区画線パラメータの1つとして抽出する、車線認識装置。
  4. 請求項1から請求項3までのいずれか1項に記載の車線認識装置であって、
    前記区画線認識部により認識された前記区画線ごとに、当該区画線の曲率を求める曲率算出部と、
    前記曲率算出部により算出された前記区画線の曲率を記憶する曲率記憶部と、
    前記曲率記憶部に記憶された前記区画線の曲率に基づいてあらかじめ決められた回数のサイクルの間に認識された曲率のばらつきを求めるばらつき算出部と、を更に備え、
    前記パラメータ抽出部は、前記曲率ばらつき算出部により求められた曲率のばらつきが小さいほど大きな値となるばらつきパラメータを、前記区画線パラメータの1つとして抽出する、車線認識装置。
  5. 請求項1から請求項4までのいずれか1項に記載の車線認識装置であって、
    前記区画線認識部は、前記撮像画像における隣接する輝度の差分であるエッジ強度に基づいて前記区画線ごとに、前記区画線とそれ以外の部分との境目の点であるエッジ点を検出するように構成されたエッジ抽出部を更に備え、
    前記パラメータ抽出部は、前記区画線認識部により求められた前記エッジ点におけるエッジ強度が強いほど大きな値となるエッジ強度パラメータ及び前記区画線認識部により求められた前記エッジ点の数が多いほど大きな値となるエッジ点数パラメータのうち少なくとも一方を、前記区画線パラメータの1つとして抽出する、車線認識装置。
  6. 請求項1から請求項5までのいずれか1項に記載の車線認識装置であって、
    前記区画線認識部により認識された前記区画線ごとに、当該区画線それぞれの色度を測定するように構成された色度測定部を更に備え、
    前記パラメータ抽出部は、前記色度測定部により求められた当該区画線の色度のばらつきが小さいほど大きな値となる色度パラメータ及び前記色度測定部により求められた当該区画線の色の種類が前記車線境界線を表す可能性が高いとあらかじめ設定された色の種類と一致するほど大きな値となる色種類パラメータのうち少なくとも一方を、前記区画線パラメータの1つとして抽出する、車線認識装置。
  7. 請求項1から請求項6までのいずれか1項に記載の車線認識装置であって、
    前記区画線認識部により認識された前記区画線ごとに、当該区画線と前記車両との位置関係を測定するように構成された関係検出部を更に備え、
    前記パラメータ抽出部は、前記関係検出部により求められた前記区画線と前記車両との位置関係が近いほど大きな値となる位置関係パラメータを、前記区画線パラメータの1つとして抽出する、車線認識装置。
  8. 請求項1から請求項7までのいずれか1項に記載の車線認識装置であって、
    前記区画線認識部により認識された前記区画線ごとに、当該区画線それぞれが継続して認識されている距離である継続距離を測定するように構成された継続測定部を更に備え
    前記パラメータ抽出部は、前記継続測定部により求められた前記継続距離が長いほど大きな値となる継続距離パラメータを、前記区画線パラメータの1つとして抽出する、車線認識装置。
JP2017005348A 2017-01-16 2017-01-16 車線認識装置 Pending JP2018116369A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017005348A JP2018116369A (ja) 2017-01-16 2017-01-16 車線認識装置
US15/871,706 US10685242B2 (en) 2017-01-16 2018-01-15 Lane detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017005348A JP2018116369A (ja) 2017-01-16 2017-01-16 車線認識装置

Publications (1)

Publication Number Publication Date
JP2018116369A true JP2018116369A (ja) 2018-07-26

Family

ID=62841444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017005348A Pending JP2018116369A (ja) 2017-01-16 2017-01-16 車線認識装置

Country Status (2)

Country Link
US (1) US10685242B2 (ja)
JP (1) JP2018116369A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3633539A3 (en) * 2018-09-07 2020-09-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method for position detection, device, and storage medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034047B (zh) * 2018-07-20 2021-01-22 京东方科技集团股份有限公司 一种车道线检测方法及装置
CN108871368B (zh) * 2018-08-06 2020-12-29 武汉中海庭数据技术有限公司 一种高精度地图车道横向拓扑关系的构建方法、系统及存储器
CN109190587B (zh) * 2018-09-19 2021-03-26 宽凳(北京)科技有限公司 对车道线数据正确率和召回率进行评估的方法和系统
CN109345547B (zh) * 2018-10-19 2021-08-24 天津天地伟业投资管理有限公司 基于深度学习多任务网络的交通车道线检测方法及装置
CN111291601B (zh) * 2018-12-07 2023-05-02 阿里巴巴集团控股有限公司 车道线识别方法和装置以及电子设备
CN109711385A (zh) * 2019-01-09 2019-05-03 宽凳(北京)科技有限公司 一种车道线识别方法、装置、设备和存储介质
CN110542436B (zh) * 2019-09-11 2021-10-15 百度在线网络技术(北京)有限公司 车辆定位系统的评测方法、装置、设备及存储介质
DE102019134320A1 (de) * 2019-12-13 2021-06-17 Connaught Electronics Ltd. Verfahren und System zum Erfassen von Fahrspurbegrenzungen
JP7264086B2 (ja) * 2020-02-27 2023-04-25 トヨタ自動車株式会社 車両制御装置及び車両制御方法
CN113434614A (zh) * 2020-03-23 2021-09-24 北京四维图新科技股份有限公司 地图数据关联方法、装置及电子设备
JP2022010577A (ja) * 2020-06-29 2022-01-17 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
CN111860319B (zh) * 2020-07-20 2024-03-26 阿波罗智能技术(北京)有限公司 车道线的确定方法、定位精度的评测方法、装置、设备
CN112329553B (zh) * 2020-10-16 2022-10-28 福瑞泰克智能系统有限公司 一种车道线标注方法及装置
CN112418035A (zh) * 2020-11-12 2021-02-26 武汉光庭信息技术股份有限公司 一种中精度地图数据自动化评价方法及系统
JP2022146655A (ja) * 2021-03-22 2022-10-05 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US20220003566A1 (en) * 2021-09-17 2022-01-06 Beijing Baidu Netcom Science Technology Co., Ltd. Vehicle position determining method, apparatus and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243161A (ja) * 2010-05-21 2011-12-01 Denso Corp 車線境界検出装置、車線境界検出プログラム
JP2017010464A (ja) * 2015-06-25 2017-01-12 富士通株式会社 車線検出装置及び車線検出方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6577334B1 (en) * 1998-02-18 2003-06-10 Kabushikikaisha Equos Research Vehicle control
JP4032727B2 (ja) 2001-12-12 2008-01-16 アイシン精機株式会社 車線境界検出装置
JP4605145B2 (ja) * 2006-11-14 2011-01-05 トヨタ自動車株式会社 車線検出装置
JP5124875B2 (ja) * 2008-03-12 2013-01-23 本田技研工業株式会社 車両走行支援装置、車両、車両走行支援プログラム
JP5359516B2 (ja) * 2008-07-29 2013-12-04 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
DE102009003697A1 (de) * 2009-03-30 2010-10-07 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Fahrspurerkennung
JP5286214B2 (ja) * 2009-09-30 2013-09-11 日立オートモティブシステムズ株式会社 車両制御装置
JP5350297B2 (ja) * 2010-03-17 2013-11-27 クラリオン株式会社 車両姿勢角算出装置及びそれを用いた車線逸脱警報システム
KR101382902B1 (ko) * 2012-06-29 2014-04-23 엘지이노텍 주식회사 차선이탈 경고 시스템 및 차선이탈 경고 방법
JP2015079446A (ja) 2013-10-18 2015-04-23 トヨタ自動車株式会社 車線認識装置
JP6134276B2 (ja) * 2014-03-03 2017-05-24 株式会社Soken 走行区画線認識装置
JP6561431B2 (ja) * 2014-05-14 2019-08-21 株式会社デンソー 境界線認識装置および境界線認識プログラム
JP6096723B2 (ja) * 2014-07-11 2017-03-15 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
JP6449627B2 (ja) * 2014-11-25 2019-01-09 株式会社Soken 走行区画線認識装置
JP6158779B2 (ja) * 2014-12-08 2017-07-05 株式会社Soken 画像処理装置
JP6285347B2 (ja) * 2014-12-10 2018-02-28 株式会社Soken 車線境界線認識装置
JP6456682B2 (ja) * 2014-12-25 2019-01-23 株式会社Soken 走行区画線認識装置
US10315651B2 (en) * 2015-10-13 2019-06-11 Magna Electronics Inc. Vehicle vision system with lateral control algorithm for lane keeping
US9988048B1 (en) * 2017-03-03 2018-06-05 GM Global Technology Operations LLC Lane detection systems and methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243161A (ja) * 2010-05-21 2011-12-01 Denso Corp 車線境界検出装置、車線境界検出プログラム
JP2017010464A (ja) * 2015-06-25 2017-01-12 富士通株式会社 車線検出装置及び車線検出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3633539A3 (en) * 2018-09-07 2020-09-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method for position detection, device, and storage medium
US11210534B2 (en) 2018-09-07 2021-12-28 Baidu Online Network Technology (Beijing) Co., Ltd. Method for position detection, device, and storage medium

Also Published As

Publication number Publication date
US20180204073A1 (en) 2018-07-19
US10685242B2 (en) 2020-06-16

Similar Documents

Publication Publication Date Title
JP2018116369A (ja) 車線認識装置
JP6538547B2 (ja) 道路曲率計測装置
JP5556748B2 (ja) 車両状態検出装置
JP6702849B2 (ja) 区画線認識装置
JP5065449B2 (ja) 消失点推定装置およびプログラム
JP5986949B2 (ja) 境界線認識装置
JP5737399B2 (ja) 赤目判定装置
US20160210519A1 (en) Complex marking determining device and complex marking determining method
JP2018116370A (ja) 推定装置
JP6105509B2 (ja) 走路推定装置及び走路推定プログラム
JP2019067303A (ja) 運転支援装置
JP2015166903A (ja) 分岐路認識装置
JP2013186664A (ja) 横断歩道認識装置および横断歩道認識方法
CN105320930A (zh) 对象物识别装置
JP6483360B2 (ja) 対象物認識装置
JP6981850B2 (ja) 運転支援システム
JP2018181093A (ja) 区画線認識装置
JP6674365B2 (ja) 区画線認識装置
JP7068017B2 (ja) 車両の走行路認識装置及び走行制御装置
KR101568683B1 (ko) 영상 분석을 이용한 차간 거리 추정 방법 및 그 장치
JP2020047174A (ja) 歩行者報知装置、歩行者報知方法、及びプログラム
JP6645936B2 (ja) 状態推定装置
JP2012185134A (ja) 走路推定装置及びプログラム
JP4842301B2 (ja) 歩行者検出装置及びプログラム
JP6405765B2 (ja) 撮像装置及び判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110