JP2015149028A - 区画線検出システム及び区画線検出方法 - Google Patents

区画線検出システム及び区画線検出方法 Download PDF

Info

Publication number
JP2015149028A
JP2015149028A JP2014022838A JP2014022838A JP2015149028A JP 2015149028 A JP2015149028 A JP 2015149028A JP 2014022838 A JP2014022838 A JP 2014022838A JP 2014022838 A JP2014022838 A JP 2014022838A JP 2015149028 A JP2015149028 A JP 2015149028A
Authority
JP
Japan
Prior art keywords
road surface
surface area
lane marking
detection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014022838A
Other languages
English (en)
Other versions
JP5874756B2 (ja
Inventor
嘉修 竹前
Kashu Takemae
嘉修 竹前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014022838A priority Critical patent/JP5874756B2/ja
Priority to US14/613,973 priority patent/US9536155B2/en
Priority to CN201510062275.2A priority patent/CN104834889B/zh
Priority to EP15154111.7A priority patent/EP2905725B1/en
Publication of JP2015149028A publication Critical patent/JP2015149028A/ja
Application granted granted Critical
Publication of JP5874756B2 publication Critical patent/JP5874756B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01FADDITIONAL WORK, SUCH AS EQUIPPING ROADS OR THE CONSTRUCTION OF PLATFORMS, HELICOPTER LANDING STAGES, SIGNS, SNOW FENCES, OR THE LIKE
    • E01F11/00Road engineering aspects of Embedding pads or other sensitive devices in paving or other road surfaces, e.g. traffic detectors, vehicle-operated pressure-sensitive actuators, devices for monitoring atmospheric or road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】遠方の区画線の検出精度を向上させること。【解決手段】自車両の周辺を撮像する撮像装置10を備え、更に、撮像装置10で撮像された撮像領域内の画像情報に基づいて当該撮像装置から撮像物までの奥行距離情報を抽出する情報抽出部と、奥行距離情報に基づいて、画像情報における自車両の直近の路面領域を除く路面領域で、かつ、自車両よりも遠方の路面領域である遠方路面領域を特定する路面領域特定部と、遠方路面領域の位置に対応する画像情報に基づいて当該遠方路面領域の区画線を検出する区画線検出部と、を区画線検出ECU20に備えること。【選択図】図1

Description

本発明は、自車両の周辺の路面に存在している区画線を検出する区画線検出システム及び区画線検出方法に関する。
従来、この種の検出システムや検出方法が知られている。例えば、下記の特許文献1には、初期状態では自車両の前方の撮像画像上で可能な限り大きく白線検出領域を設定し、その後、道路パラメータが実際の路面形状に近づくよう更新されたならば、なるべく小さな白線検出領域を設定することで、白線以外のものの誤検出を減らしつつ処理速度を向上させる、という技術が開示されている。この技術では、自車両の近傍側から遠方側へと道路パラメータを推定しつつ、その路面形状に沿うように白線検出領域を徐々にずらしていくことによって、遠方の白線を検出している。また、下記の特許文献2には、実線と破線とからなる二重白線をそれぞれの線毎に識別する技術が開示されている。この技術では、二重白線をほぼ直線として近似可能な車両の近傍の領域と、例えば旋回路であるがために二重白線をほぼ直線として近似不可能な車両の遠方の領域と、で識別方法を変えている。この技術では、遠方の領域の二重白線における実線と破線が同化して見えることがあるので、自車両の二重白線であるにも拘わらず、ノイズとして判断されてしまう可能性がある。また、下記の特許文献3には、撮像画像中の消失点(レンズ焦点と撮像面とで予め決まるもの)から自車両側に向けて放射方向にエッジ強度のヒストグラムを算出し、そのエッジ強度が閾値以上となる方向を特定することで、その方向に白線が存在していると判定する、という技術が開示されている。また、下記の特許文献4には、1フレーム毎に撮像画像上の白線エッジを記録するが、自車両にピッチ変動が生じたときのフレームの白線エッジは記録しない、という技術が開示されている。尚、下記の特許文献5には、自車両の前方の撮像画像上に設定した近傍領域と遠方領域のそれぞれの計測点の解析結果に基づいて、自車両を交差点等へ進入させる際に交差路等から近づいてくる他車両を検出する、という技術が開示されている。この技術では、遠方領域の計測点の密度を近傍領域の計測点の密度よりも密に設定している。また、下記の特許文献6には、自車両と前方車両との距離に応じて、自車両の前方の撮像画像上における前方車両のエッジを抽出するためのフィルタを変更する、という技術が開示されている。
特開2003−118521号公報 特開2012−014398号公報 特開2010−060371号公報 特開2011−170750号公報 特開2007−286724号公報 特開2001−101428号公報
ところで、区画線を手前から遠方へと順次検出しながら路面形状を順次推定していく技術では、例えば、建築物等の立体物の陰によって区画線の輝度値が低下させられたり、他車両や自転車等によって区画線が隠れたり、区画線が波線形状であったりするなど、区画線が連続して検出されずに、路面形状が上手く推定できなくなることがある。そして、このような場合には、情報不足や撮像画像上の誤った領域の解析によって途中で区画線を検出することができなくなる可能性がある。よって、遠方の区画線の検出精度を向上させる余地がまだまだ残っている。
そこで、本発明は、かかる従来例の有する不都合を改善し、遠方の区画線の検出精度を向上させることが可能な区画線検出システム及び区画線検出方法を提供することを、その目的とする。
上記目的を達成する為、本発明に係る区画線検出システムは、自車両の周辺を撮像する撮像装置と、前記撮像装置で撮像された撮像領域内の画像情報に基づいて当該撮像装置から撮像物までの奥行距離情報を抽出する情報抽出部と、前記奥行距離情報に基づいて、前記画像情報における自車両の直近の路面領域を除く路面領域で、かつ、自車両よりも遠方の路面領域である遠方路面領域を特定する路面領域特定部と、前記遠方路面領域の位置に対応する画像情報に基づいて当該遠方路面領域の区画線を検出する区画線検出部と、を備えることを特徴としている。
ここで、前記区画線検出部が前記区画線を検出するための検出条件を算出する検出条件算出部を設け、前記路面領域特定部は、前記奥行距離情報に基づいて、前記画像情報における自車両の前記直近の路面領域を特定し、かつ、前記画像情報にて前記遠方路面領域と前記直近の路面領域との間に存在している中間の路面領域を特定し、前記検出条件算出部は、前記遠方路面領域における区画線を検出するための第1検出条件と、前記直近の路面領域における区画線を検出するための第2検出条件と、を算出し、該第1及び第2の検出条件に基づいて前記中間の路面領域における区画線を検出するための第3検出条件を算出することが望ましい。
また、前記検出条件算出部は、前記直近の路面領域と前記中間の路面領域と前記遠方路面領域における各々の区画線のエッジ強度に基づいて、前記直近の路面領域と前記中間の路面領域と前記遠方路面領域における各々の前記検出条件を算出することが望ましい。
また、前記路面領域特定部は、前記遠方路面領域で区画線が検出されなかった場合、該遠方路面領域よりも自車両側に新たな遠方路面領域を特定することが望ましい。
更に、上記目的を達成する為、本発明に係る区画線検出方法は、自車両の周辺を撮像する撮像装置で撮像された撮像領域内の画像情報に基づいて当該撮像装置から撮像物までの奥行距離情報を抽出する抽出工程と、前記奥行距離情報に基づいて、前記画像情報における自車両の直近の路面領域を除く路面領域で、かつ、自車両よりも遠方の路面領域である遠方路面領域を特定する特定工程と、前記遠方路面領域の位置に対応する画像情報に基づいて当該遠方路面領域の区画線を検出する区画線検出工程と、を備えることを特徴としている。
本発明に係る区画線検出システム及び区画線検出方法では、従来のように自車両の直近の路面領域から遠方の路面領域に向かって順次区画線の検出及び走行路の路面形状の推定を実施せずとも、上記の遠方路面領域における自車両の区画線の検出を行うことができる。このため、この区画線検出システム及び区画線検出方法においては、途中から路面形状の推定が上手くいかなかった等の理由によって、自車両から離れた場所での自車両の区画線の検出ができなくなるという事態を回避することができる。よって、この区画線検出システム及び区画線検出方法は、遠方の区画線の検出精度を向上させることができる。また、従来は、路面形状が上手く推定できなかった場合、誤った領域に対して区画線の検出処理を実施してしまう。しかしながら、この区画線検出システム及び区画線検出方法は、そのような誤認による演算処理の実施が低減されるので、遠方の区画線の検出精度を向上させることができると共に、演算処理の負荷の軽減や時間の短縮を図ることができる。
図1は、本発明に係る区画線検出システムの構成の一例を示す図である。 図2は、路面推定領域について説明する図である。 図3は、V−disparity曲線について説明する図である。 図4は、遠方路面領域の特定について説明する図である。 図5は、区画線の検出処理について説明する図である。 図6は、図5のA部における区画線の検出処理について説明する図である。 図7は、区画線の検出処理について説明する図である。 図8は、区画線の検出処理について説明する図である。 図9は、路面形状の推定について説明する図である。 図10は、検出条件算出領域について説明する図である。 図11は、本発明に係る区画線検出システムの演算処理動作の一例を説明するフローチャートである。 図12は、検出条件を推定する際の路面領域について説明する図である。
以下に、本発明に係る区画線検出システム及び区画線検出方法の実施例を図面に基づいて詳細に説明する。尚、この実施例によりこの発明が限定されるものではない。
[実施例]
本発明に係る区画線検出システム及び区画線検出方法の実施例を図1から図11に基づいて説明する。
図1の符号1は、本実施例の区画線検出システムを示す。この区画線検出システム1は、取得した自車両の周辺情報に基づいて区画線を検出するものである。ここで例示する区画線とは、自車両の周辺の路面における白線や黄線等の車線境界線のことである。
この区画線検出システム1は、自車両の周辺情報を取得する周辺情報取得部と、その取得した周辺情報に基づいて路面領域を特定する路面領域特定部と、その特定された路面領域における区画線を検出する区画線検出部と、を備える。
周辺情報取得部とは、路面と区画線と立体物(他車両や建築物等)と背景(空等)との識別が可能な自車両の周辺情報を取得できるものである。本実施例においては、この周辺情報取得部に撮像装置10を利用する。ここで用いる撮像装置10とは、自車両の周辺を撮像し、その撮像領域における路面と区画線との識別及び路面と立体物と背景との識別が可能な画像情報を自車両の周辺情報として取得することができるものである。その画像情報とは、撮像領域における輝度値情報を持つ画素の集合である。このため、この画像情報からは、撮像領域の画像(以下、「撮像画像」という。)の各位置を輝度毎に表した輝度画像が得られる。ここで、路面と区画線との識別は、撮像領域内の画像情報に含まれる輝度値情報(具体的には、それぞれの画素に含まれている輝度値情報であって、この撮像領域の輝度画像)に基づいて行うことができる。また、路面と立体物と背景との識別は、その画像情報から抽出される奥行距離情報に基づいて行うことができる。また、その奥行距離情報は、路面と区画線との識別に利用することもできる。その奥行距離情報に基づいた路面と区画線との識別は、この技術分野における周知の方法で実施することができる。
ここで、奥行距離情報とは、撮像装置10から撮像画像内における撮像物までの奥行の距離を表す情報のことである。その奥行距離の方向は、例えば撮像画像の水平方向(横方向)及び垂直方向(縦方向)を各々X座標及びY座標と定義した場合に、そのXY平面に直交する方向であり、かつ、撮像装置10の撮像方向において当該撮像装置10から遠方に向かって離れていく方向のことである。このため、撮像装置10には、少なくとも自車両の進行方向を撮像させる。
その様々な識別を行うために、撮像装置10には、輝度値情報を有する画像情報が得られ、かつ、その画像情報に基づいて奥行距離情報が得られるものを用いる。よって、この例示では、その撮像装置10としてステレオカメラを利用する。何故ならば、ステレオカメラを用いた場合には、左側カメラ11と右側カメラ12とでそれぞれに同一撮像領域内の画像情報を取得することができるので、後述するように、そのそれぞれの画像情報から当該撮像領域内の視差値情報を得ることができ、その視差値情報に基づいて奥行距離情報を算出することができるからである。尚、ここでは周辺情報取得部(撮像装置10)にステレオカメラを利用しているが、この周辺情報取得部としては、輝度値情報が含まれた画像情報を取得でき、かつ、路面と区画線と立体物と背景との識別が可能な自車両の周辺の撮像物までの奥行距離情報を取得できるのであれば、単眼カメラを利用してもよい。単眼カメラを用いる場合には、この技術分野における周知の方法で奥行距離情報を算出すればよい。
この区画線検出システム1は、区画線検出ECU20を備える。その区画線検出ECU20とは、この区画線検出システム1においての演算処理を担っている電子制御装置である。この区画線検出ECU20には、撮像装置10で撮像された撮像領域内の画像情報(左側カメラ11の画像情報と右側カメラ12の画像情報)が入力される。この区画線検出ECU20は、その左側カメラ11と右側カメラ12のそれぞれの画像情報に基づいて撮像領域内における視差値情報を取得し、この視差値情報に基づいて奥行距離情報を算出する。そして、この区画線検出ECU20は、その奥行距離情報に基づいて撮像画像内における自車両よりも遠方の路面領域を特定し、この遠方の路面領域内における輝度値情報に基づいて当該路面領域内の区画線を検出する。よって、本実施例の路面領域特定部と区画線検出部は、この区画線検出ECU20の演算処理機能の1つとして設けている。
区画線検出部は、特定された路面領域(例えば後述する遠方路面領域)の位置に対応する画像情報と当該画像情報に含まれる輝度値情報と当該特定された路面領域の位置に対応する奥行距離情報(視差値情報)の内の少なくとも1つに基づいて、その特定された路面領域の区画線を検出する。この例示の区画線検出部は、撮像領域内の画像情報(左側カメラ11と右側カメラ12の内の何れか一方の画像情報)を利用して、路面と区画線とを識別する。つまり、この例示では、その画像情報に含まれる輝度値情報を利用して、路面と区画線とを識別する。一方、路面領域特定部は、撮像領域内の画像情報(左側カメラ11の画像情報と右側カメラ12の画像情報)に基づき抽出された奥行距離情報(視差値情報)を利用して、路面と立体物と背景とを識別する。このため、区画線検出ECU20には、撮像装置10で撮像された画像情報から視差値情報や奥行距離情報を抽出する情報抽出部を設ける。
情報抽出部には、この技術分野における周知の方法によって奥行距離情報(視差値情報)を算出させる。例えば、この例示の情報抽出部には、左側カメラ11と右側カメラ12のそれぞれの画像情報に基づいて、撮像領域の視差画像を算出させる。その視差画像とは、撮像領域内における視差値情報を持つ画素の集合として表されたものであり、左側カメラ11の画像情報と右側カメラ12の画像情報の内の何れか一方の画像情報(以下、「基準画像情報」という。)における座標毎の視差を示している。よって、情報抽出部は、左側カメラ11と右側カメラ12のそれぞれの画像情報に基づいて、撮像領域内の視差値情報を得ることができる。その視差値と奥行距離との間には一意の対応関係が存在しているので、この情報抽出部は、その視差値情報に基づいて撮像領域内の奥行距離情報を得ることができる。
本実施例の路面領域特定部は、その撮像領域内の奥行距離情報(視差値情報)に基づいて、基準画像情報の中から一部又は全部の路面領域を特定することができる。
この例示の路面領域特定部には、図2の上図に示すように基準画像情報を複数に分割させ、情報抽出部が算出した奥行距離情報(視差値情報)に基づいて、図3に示すような座標V(前述したY座標に対応する座標)に対する奥行距離(視差値)の曲線を生成させる。その図3では、V−disparity曲線を例示する。そのV−disparity曲線とは、基準画像情報における垂直方向(縦方向)の座標Vを縦軸に投影し、かつ、その座標Vに対応する視差(disparity)の値を横軸に投影した2次元平面上の曲線である。そして、この路面領域特定部には、そのV−disparity曲線の傾きや切片に基づいて基準画像情報においての路面と立体物と背景とを推定させる。そのV−disparity曲線においては、立体物や背景であれば、画像奥行方向の距離が変わらないので視差の値がほぼ一定になり、路面であれば、画像奥行方向の距離が変わるので、視差の値が変化する。よって、路面領域特定部は、V−disparity曲線においての座標Vに応じた視差(disparity)の値に基づいて、路面と立体物と背景とを識別することができる。ここで、基準画像情報の分割方向については、略垂直方向(略縦方向)に設定する。図2の上図の例示では、縦方向に分割している。路面領域特定部は、例えば、そのそれぞれの分割領域(分割された区画)において、遠方側から自車両側へと垂直方向(縦方向)に走査しながら2次元平面上に座標V毎の視差(disparity)の値を投影することで、基準画像情報におけるV−disparity曲線を生成する。その際、路面領域特定部は、例えば、左端の分割領域から右端の分割領域に向けて又は右端の分割領域から左端の分割領域に向けて分割領域毎に順次視差の値の投影を行っていく。
このようにして、路面領域特定部には、先ず、奥行距離情報(視差値情報)を利用して基準画像情報における路面と立体物と背景とを識別させる。つまり、この例示では、基準画像情報の中の路面であると推定される領域(以下、「路面推定領域」ともいう。)を奥行距離情報(視差値情報)に基づいて検出する(図2の下図)。よって、区画線検出ECU20においては、この後の演算処理の対象となる領域を基準画像情報における路面推定領域とその周辺の領域とに狭めることができるので、後工程の演算処理に関する負荷の軽減と時間の短縮を図ることができる。図2の下図では、説明の便宜上、路面推定領域以外の領域をハッチングで塗りつぶしている。
次に、路面領域特定部には、画像情報(基準画像情報)における一部を区画線の検出対象となる領域(以下、「区画線の検出対象領域」という。)として特定させる。例えば、路面領域特定部には、画像情報(基準画像情報)における自車両の直近の路面領域を除く路面領域で、かつ、自車両よりも遠方の路面領域(以下、「遠方路面領域」という。)を区画線の検出対象領域として特定させる。
具体的には、基準画像情報における路面推定領域の内、自車両の進行方向における直近の路面推定領域を除いた残りの領域から遠方路面領域を特定する。その直近の路面領域とは、自車両の走行路の路面形状(曲率等)を把握せずとも従来の方法で区画線の検出が可能な自車両の近傍の路面領域のことである。つまり、遠方路面領域とは、従来は自車両の走行路の路面形状を推定した上で特定していた進路上の路面領域のことであるといえる。尚、この路面領域特定部は、その路面推定領域の全体を区画線の検出対象領域として特定することもできる。
例えば、路面領域特定部には、自車両の速度に基づいて、その速度が高いほど、路面推定領域の中でも自車両から離れている位置(基準画像情報における上側)を区画線の検出対象領域としての遠方路面領域に特定させることができる。その位置(つまり画像奥行方向における自車両と路面との距離)は、例えば自車両の速度に応じて予め決めておけばよい。尚、自車両と走行路上の各位置との距離は、前述した奥行距離情報であり、視差値情報から算出される。
路面領域特定部は、基準画像情報における少なくとも路面推定領域とその周囲の領域を走査領域とし、その走査領域を走査した際に得た奥行距離情報(視差値情報)に基づいて、区画線の検出対象領域を特定する。路面領域特定部は、例えば、座標V毎に水平方向(横方向)の分割領域を設定し、走査領域におけるそれぞれの分割領域において、左端から右端に向けて又は右端から左端に向けて水平方向(横方向)に走査してもよい。その際には、例えば、走査領域における遠方側の分割領域から自車両側の分割領域に向けて又は走査領域における自車両側の分割領域から遠方側の分割領域に向けて、分割領域毎に順次水平方向(横方向)の走査を行う。
例えば、路面領域特定部には、その走査領域(路面推定領域とその周囲の領域)の走査によって得た奥行距離情報(視差値情報)に基づいて、基準画像情報における変化点の収束する位置(以下、「変化点収束部」という。)を検出させる。その変化点とは、基準画像情報において路面と立体物及び背景とが切り替わる位置のことである。そして、この路面領域特定部には、その変化点収束部よりも下側(自車両側)の路面推定領域を区画線の検出対象領域としての遠方路面領域に特定させる(図4)。図4では、説明の便宜上、図2に示す路面推定領域以外の領域のみならず、その路面推定領域における遠方路面領域以外の領域についてもハッチングで塗りつぶしている。
一方、例えば、自車両の走行路が平坦路若しくは降坂路から登坂路に変化する場合又は降坂路から平坦路に変化する場合、基準画像情報においては、その下端又は下部から上端に至るまで路面推定領域が続くことがあるので、変化点収束部が検出されない。このため、路面領域特定部には、その走査領域(路面推定領域とその周囲の領域)を走査した際に変化点収束部が検出されなかった場合、基準画像情報において最も上方で検出された路面と立体物及び背景との変化点を抽出させ、この変化点の周囲の路面推定領域を区画線の検出対象領域としての遠方路面領域に特定させればよい。
また、路面領域特定部には、例えば、上記のように走査領域(路面推定領域とその周囲の領域)を垂直方向(縦方向)に走査させながら、その走査点が自車両の速度に応じて予め決めてある画像奥行方向における自車両と路面との距離まで到達した場合、その位置を区画線の検出対象領域としての遠方路面領域に特定させることができる。
ここで、区画線の検出対象領域を特定するに際して、路面領域特定部は、基準画像情報における左右何れかの端部又は内側等のどの場所を起点にして水平方向(横方向)に走査してもよい。しかしながら、この例示では、先に説明したように、基準画像情報の中の路面であると考えられる領域(路面推定領域)について、その場所が何処なのか奥行距離情報(視差値情報)に基づき既に当たりが付けられている。このため、路面領域特定部には、左記に例示したように、基準画像情報における路面推定領域の位置に応じた場所から走査させることによって、区画線の検出対象領域としての遠方路面領域を特定させることが望ましい。
例えば、基準画像情報の下端又は下部には、自車両の走行路の形状に拘わらず路面推定領域が含まれている。よって、路面領域特定部は、基準画像情報の下端又は下部から上方に向けて路面推定領域やその周辺の領域を走査することで、区間線が存在し得ない領域に対する無駄な演算処理を軽減することができる。
また、この路面領域特定部は、基準画像情報の上端から下方に向けて走査していくことで、下端を起点にして走査するよりも遠方路面領域を早期に特定できる場合もあるので、基準画像情報の上端を起点にして走査してもよい。また、例えば、カーナビゲーションシステムの地図情報と自車位置情報とに基づいて自車両の進路に左旋回路が検出されている場合、基準画像情報においては、左側に路面推定領域が存在している。このため、路面領域特定部は、その基準画像情報における左端から右方へと走査してもよい。これらのように走査の起点を決めることで、この路面領域特定部は、区画線の検出対象領域を特定する際の演算処理の負荷を軽減することができる。
ところで、路面領域特定部には、基準画像情報における所定の区画の路面推定領域を区画線の検出対象領域としての遠方路面領域に特定させてもよい。その所定の区画は、例えば、その基準画像情報を水平方向に分割した各分割領域の中から特定のものが選ばれるように予め決めておく。例えば、路面が直進の平坦路の場合には、撮像装置10の画角や自車両のピッチ変動の有無等の諸条件にも依るが、その基準画像情報の中央部分に遠方路面領域となり得る路面推定領域が存在していると考えられる。このため、その中央部分が含まれている水平方向の分割領域の中に路面推定領域が存在している場合、路面領域特定部には、その分割領域の路面推定領域を区画線の検出対象領域としての遠方路面領域に特定させる。一方、その分割領域の中に路面推定領域が存在していない場合、路面領域特定部には、この分割領域よりも自車両側の分割領域の中に路面推定領域が存在しているのか否かを判定させる。そして、この路面領域特定部には、路面推定領域が存在していれば、この路面推定領域を区画線の検出対象領域としての遠方路面領域に特定させ、路面推定領域が存在していなければ、更に自車両側の分割領域に対して同様の演算処理を実施させる。
更に、この路面領域特定部には、そのような遠方路面領域だけでなく、前述した直近の路面領域を区画線の検出対象領域として特定させることもできる。その際、路面領域特定部には、既に検出されている路面推定領域の情報を直近の路面領域にそのまま当て嵌めさせてもよく、また、路面推定領域を上述したように再度走査させてから直近の路面領域を特定させてもよい。
尚、この例示では、路面推定領域を自車両に対する遠方の領域と直近の領域とに大別しているので、上記のように路面領域特定部を構成している。しかしながら、路面推定領域を更に細分化した領域に分けて考える場合、路面領域特定部は、その何れの領域に対しても区画線の検出対象領域として特定できるように構成しておくことが望ましい。
本実施例の区画線検出部は、路面領域特定部が特定した区画線の検出対象領域に対して区画線の有無を判定する。この区画線検出部は、その検出対象領域の輝度値情報に基づいて、この検出対象領域における区画線を検出する。この区画線の検出は、この技術分野における周知の方法で実施する。
例えば、この区画線検出部は、エッジ点検出部と、エッジ点ペアリング部と、エッジ線分検出部と、エッジ線分ペアリング部と、区画線選択部と、に分けることができる。
エッジ点検出部には、区画線の検出対象領域におけるエッジ点(明暗の切り替わる点)を検出させる。そのエッジ点の検出は、この技術分野における周知の方法で実施する。
例えば、エッジ点検出部は、図5及び図6の上図に示すように、基準画像情報における少なくとも区画線の検出対象領域を水平方向に走査し、その検出対象領域における各位置の輝度値情報に対して微分フィルタ(例えばsobelフィルタ等)を用いることで、暗部(主に黒色の部分)から明部(主に白色又は黄色の部分)へと変化する第1エッジ点(上りエッジ点)と明部から暗部へと変化する第2エッジ点(下りエッジ点)のそれぞれのエッジ強度を算出する(図6の下図)。つまり、エッジ点検出部は、基準画像情報における区画線の検出対象領域の中から区画線のエッジ点であると思われる第1エッジ点と第2エッジ点とを検出する。尚、暗部とは、主として路面のアスファルト部分に相当する。一方、明部とは、主として路面に塗られた区画線に相当する。
ここで、エッジ強度の小さいエッジ点は、その前後のコントラストが弱い所を表しており、例えば、ノイズや路面の汚れ等の区画線以外の要因により検出されたものであるのか、それとも区画線の部分的なかすれ等により検出されたものであるのか判別し難い。このため、エッジ点検出部には、第1エッジ点と第2エッジ点を検出するに際して、検出されたエッジ点のエッジ強度と閾値とを比較させることによって、区画線であるのか否か判別の難しいエッジ点を除外させる。ここでは、エッジ強度が上限閾値と下限閾値との間の閾値範囲内に存在しているエッジ点を後の演算処理に不要なものとして除外する(図7)。一方、エッジ点検出部は、エッジ強度が上限閾値を超えているエッジ点を第1エッジ点として検出し、かつ、エッジ強度が下限閾値を超えているエッジ点を第2エッジ点として検出する。その閾値については、1フレーム目の画像情報に適用する場合、予め設定しておいた値を使用し、2フレーム目以降の画像情報に適用する場合、後述する検出条件算出部が求めた値を使用する。
しかしながら、その検出された第1エッジ点と第2エッジ点は、必ずしもその全てが区画線のエッジ点を表しているとは限らない。ノイズや路面の汚れ等に関わるコントラストの高いところのエッジ点を検出している可能性があるからである。そこで、この例示では、エッジ点ペアリング部を設けている。
そのエッジ点ペアリング部には、検出された第1エッジ点と第2エッジ点の中から互いにペアとなる第1エッジ点と第2エッジ点とを抽出させることによって、ペアになれなかった孤立している第1エッジ点や第2エッジ点を不要なエッジ点として除外させる(図8)。ペアとは、1本の区画線から検出される第1エッジ点と第2エッジ点の組のことである。そのペアか否かの判定には、第1エッジ点と第2エッジ点との間の幅、第1エッジ点や第2エッジ点における輝度値情報を利用する。例えば、エッジ点ペアリング部は、第1エッジ点と第2エッジ点をペアリングするに際して、予め設定したおいた区画線の想定幅に対して間隔(幅)が所定の範囲内に収まっている第1エッジ点と第2エッジ点の組をペアとする。これに対して、エッジ点ペアリング部は、その想定幅に対して間隔(幅)が所定の範囲から外れている第1エッジ点や第2エッジ点をノイズ等に伴い検出された不要なエッジ点として除外する。
尚、ペアとして検出された第1エッジ点と第2エッジ点の間に存在している第1エッジ点や第2エッジ点は、例えば、区画線のかすれ等に伴うコントラストの差によって検出されたものと考えられる。このような第1エッジ点や第2エッジ点は、下記の第1エッジ線分や第2エッジ線分を検出する際に要らないので、不要なエッジ点として取り扱うことが望ましい。
このようにして選ばれた全ての第1エッジ点と第2エッジ点は、区画線のエッジ点である可能性がより高いものといえる。エッジ線分検出部とは、その全ての第1エッジ点と第2エッジ点に対してハフ変換処理等を実施することで、直線状又は曲線状に並ぶ線分(第1エッジ線分と第2エッジ線分)を検出するものである(図8)。
エッジ線分ペアリング部には、検出された全ての第1エッジ線分と第2エッジ線分に対して互いの平行度合いや間隔等を算出させ、その結果を利用して、互いにペアとなる第1エッジ線分と第2エッジ線分とを抽出させる(図8)。ペアとは、1本の区画線(破線であれば1つ1つの線)から検出される第1エッジ線分と第2エッジ線分の組のことである。
そのペアとなる第1エッジ線分と第2エッジ線分は、1本の区画線におけるそれぞれの境界を表したものである。区画線選択部とは、そのペアとなる第1エッジ線分と第2エッジ線分に基づいて、自車両の走行路における区画線を選択するものである。
この区画線選択部は、その選択を行うに際して、過去に検出された自車両の区画線情報が存在していない場合、今回ペアとして検出された第1エッジ線分と第2エッジ線分とで囲まれた領域を自車両の区画線として選択する。但し、3本以上の区画線が検出されたときは、例えば、これらの各線に対する自車両の位置や他車両の位置、その他車両の進行方向等を参考にして、自車両の区画線を選択すればよい。これでも自車両の区画線を判別できない場合には、例えば、区画線の検出対象領域として別の領域を特定し、この新たな検出対象領域において検出された区画線の位置等も加味することによって、自車両の区画線を選択すればよい。
一方、この区画線選択部は、過去に検出された自車両の区画線情報が存在している場合、例えば、その過去の区画線情報に近い第1エッジ線分と第2エッジ線分のペアを抽出し、この第1エッジ線分と第2エッジ線分とで囲まれた領域を自車両の区画線として選択する。
ここで、過去に検出された自車両の区画線情報とは、例えば、現在の基準画像情報のフレームよりも前のフレームで検出された自車両の区画線の情報、今回と同じ路面を過去に走行した際に検出された自車両の区画線の情報等のことである。
区画線検出部は、このようにして自車両の区画線を検出する。
区画線検出ECU20には、路面形状を推定する路面形状推定部が更に設けられている。路面形状推定部は、区画線検出部で検出された区画線(厳密には区画線における第1及び第2のエッジ線分の座標とそのエッジ強度)に基づいて、この区画線の存在している場所の路面形状(例えば図9)を推定することができる。例えば、この路面形状推定部には、最小二乗法やカルマンフィルタ等を利用して、自車両の走行路の路面形状を表現するための走行路パラメータ(曲率、曲率変化率、ヨー角、横位置等)を推定させる。
区画線検出ECU20には、その走行路パラメータに応じた路面形状や区画線を基準画像情報に投影させる投影制御部を設けてもよい。
また、区画線検出ECU20には、区画線の検出条件を算出する検出条件算出部が設けられている。その検出条件とは、基準画像情報から区画線を検出するための条件であり、前述したエッジ強度を求める際の微分フィルタやエッジ点を検出するための閾値等のことである。例えば、検出条件算出部には、今回の演算処理工程(1フレーム目)の基準画像情報における検出対象領域の区画線を検出し、その区画線に関わる自車両の走行路の路面形状を推定し終えた後で、次回の演算処理工程(次のフレーム)の基準画像情報における区画線の検出対象領域で利用する検出条件を算出させる。
ここで、この検出条件は、今回の演算処理工程の基準画像情報を複数に区分けして、その領域(以下、「検出条件算出領域」という。)毎に算出する。その際、今回の演算処理工程において基準画像情報の中の一部の区画線だけが検出されているのであれば、その区画線が含まれている検出条件算出領域だけで検出条件の算出を行う。
この例示では、基準画像情報を遠方側と近傍側と左側と右側とで4つの検出条件算出領域に区分けする(図10)。遠方側と近傍側との区分けについては、例えば、撮像装置10の画角等で決まるカメラパラメータに基づいて設定しておけばよい。また、この遠方側と近傍側との区分けは、そのカメラパラメータを自車両のピッチ変動を考慮に入れて検出条件算出部に補正させることによって、その都度変更してもよい。また、この遠方側と近傍側との区分けについては、視差値情報や奥行距離情報を利用して決めてもよい。
更に、この例示では、自車両の車線における2本の区画線に投影された走行路パラメータの中間に位置している仮想線(以下、「中心線」という。)を求め、この中心線を境にして、基準画像情報を左側と右側とに区分けする。例えば、検出条件算出部は、その2本の走行路パラメータのX座標の平均から中心線を求める。ここでは、基準画像情報の水平方向(横方向)をX座標とし、垂直方向(縦方向)をY座標とする。このような中心線に基づいて検出条件算出領域を区分けする場合には、路面推定領域のみを区分けするようにしてもよい。尚、1フレーム目等のように走行路パラメータが求められていないときには、基準画像情報を左右に二等分させる線を検出条件算出領域の設定時の中心線にしてもよい。
具体的に、検出条件算出部には、今回の演算処理工程における区画線の第1及び第2のエッジ点の座標及びエッジ強度並びに走行路パラメータを用いて、今回の検出条件算出領域と同じ領域に対して次回の演算処理工程で使う上限閾値と下限閾値とを算出させる。つまり、検出条件には、その上限閾値と下限閾値とが含まれている。ここで、今回の演算処理工程とは、前述したように、今回のフレームに対する演算処理工程のことである。この場合、次回の演算処理工程とは、次回のフレームに対する演算処理工程のことをいう。
検出条件算出部には、算出対象の検出条件算出領域における区画線の第1及び第2のエッジ点のエッジ強度の平均と標準偏差とを算出させ、これらを下記の式1及び式2に各々代入させることで、上限閾値と下限閾値とを算出させる。各式の「α」は、予め設定してある任意の値である。
上限閾値=平均+α*標準偏差 … (1)
下限閾値=平均−α*標準偏差 … (2)
検出条件算出部は、このようにして算出した上限閾値と下限閾値とについて、今回の検出条件算出領域と同じ領域において次回の演算処理工程で使う上限閾値と下限閾値として設定する。
尚、この検出条件算出部には、そのエッジ強度の平均のみを閾値として設定させてもよい。この場合には、その閾値よりも大きいエッジ強度のエッジ点を区画線のエッジ点である可能性のあるものとして判断させる。
また、この検出条件算出部には、今回の演算処理工程で用いた微分フィルタについて、今回の検出条件算出領域と同じ領域に対して次回の演算処理工程で使う微分フィルタとして設定する。
以下に、この区画線検出ECU20の演算処理の一例について図11のフローチャートに基づき説明する。
区画線検出ECU20には、撮像装置10で撮像された撮像領域内の画像情報が入力される(ステップST1)。
情報抽出部は、その画像情報から視差値情報を抽出する(ステップST2)。その視差値情報の抽出は、前述したようにして行う。そして、この情報抽出部は、その視差値情報に基づいて奥行距離情報を算出する(ステップST3)。
路面領域特定部は、その奥行距離情報に基づいて、基準画像情報における所定の路面領域を特定する(ステップST4)。例えば、ここでは、前述したように、その基準画像情報における遠方路面領域が区画線の検出対象領域として特定される。
エッジ点検出部は、その基準画像情報における所定の路面領域(区画線の検出対象領域)の第1エッジ点と第2エッジ点とを検出する(ステップST5)。ここでは、前述したように、微分フィルタと上限閾値と下限閾値とを用いて、その所定の路面領域(区画線の検出対象領域)の中から区画線のエッジ点であると思われる第1エッジ点と第2エッジ点とが検出される。
エッジ点ペアリング部は、前述したように、検出された第1エッジ点と第2エッジ点の中から互いにペアとなる第1エッジ点と第2エッジ点とを抽出することで、第1エッジ点と第2エッジ点のペアリングを実施し(ステップST6)、ノイズや汚れ等に起因する不要なエッジ点を取り除く。
エッジ線分検出部は、前述したように、残っている全ての第1エッジ点と第2エッジ点に基づいて、第1エッジ線分と第2エッジ線分とを検出する(ステップST7)。そして、エッジ線分ペアリング部は、前述したように、その検出された全ての第1エッジ線分と第2エッジ線分に対して、互いにペアとなる第1エッジ線分と第2エッジ線分とを抽出し、この第1エッジ線分と第2エッジ線分をペアリングする(ステップST8)。
区画線選択部は、前述したように、そのペアとなる第1エッジ線分と第2エッジ線分に基づいて、自車両の走行路における区画線を選択する(ステップST9)。そして、路面形状推定部は、その区画線に基づいて、所定の路面領域(区画線の検出対象領域)においての自車両の走行路の走行路パラメータを推定する(ステップST10)。
検出条件算出部は、次回の演算処理工程で用いる区画線の検出条件を算出する(ステップST11)。例えば、ここでは、前述したように次回のステップST5で用いる微分フィルタと上限閾値と下限閾値とを算出する。
区画線検出ECU20は、以上の演算処理を終えた後、入力された次のフレームの画像情報に対する演算処理を同様に繰り返す。
以上示したように、本実施例の区画線検出システム及び区画線検出方法では、撮像された画像情報に基づく奥行距離情報(視差値情報)によって基準画像情報における路面推定領域を求め、その路面推定領域に対して区画線検出に関わる演算処理を実施する。このため、この区画線検出システム及び区画線検出方法は、区画線を検出するに際しての演算処理の負荷の軽減や時間の短縮を図ることができる。また、この区画線検出システム及び区画線検出方法は、立体物や背景の存在している領域を除外し、区画線が存在している可能性の高い路面推定領域を演算処理の対象にしているので、その区画線の検出精度や検出の成功率を高めることもできる。更に、この区画線検出システム及び区画線検出方法では、その路面推定領域の中から所定の路面領域(遠方路面領域)を区画線の検出対象領域として特定し、この検出対象領域で区画線の検出処理を行う。このため、この区画線検出システム及び区画線検出方法は、区画線を検出するに際しての演算処理の負荷の更なる軽減や時間の更なる短縮を図ることができる。
また、この区画線検出システム及び区画線検出方法では、従来のように自車両の直近の路面領域から遠方の路面領域に向かって順次区画線の検出及び走行路の路面形状の推定を実施せずとも、遠方路面領域における自車両の区画線の検出を行うことができる。このため、この区画線検出システム及び区画線検出方法においては、途中から路面形状の推定が上手くいかなかった等の理由によって、自車両から離れた場所での自車両の区画線の検出ができなくなるという事態を回避することができる。よって、この区画線検出システム及び区画線検出方法は、遠方の区画線の検出精度を向上させることができる。また、従来は、路面形状が上手く推定できなかった場合、誤った領域に対して区画線の検出処理を実施してしまう。しかしながら、この区画線検出システム及び区画線検出方法は、そのような誤認による演算処理の実施が低減されるので、遠方の区画線の検出精度を向上させることができると共に、演算処理の負荷の軽減や時間の短縮を図ることができる。
また、この区画線検出システム及び区画線検出方法は、自車両の走行路の路面形状にも依るが、例えば直進路であるならば、所定の路面領域(遠方路面領域)に対して区画線の検出処理を行うだけで、自車両の近傍から遠方までの区画線や路面の形状を推定することができる。
ここで、この区画線検出システム及び区画線検出方法においては、遠方路面領域における区画線の検出処理を本実施例の如く実施する一方、直近の路面領域における区画線の検出処理を本実施例又は従来の方法で実施することができる。そして、その際には、遠方路面領域に関わる演算処理と直近の路面領域に関わる演算処理とを各々個別に独立して実施することができる。つまり、この区画線検出システム及び区画線検出方法では、直近の路面領域の区画線を本実施例又は従来の方法で検出しながら、これと同時に又はこれに先んじて遠方路面領域の区画線を本実施例の方法で検出することができる。このため、この区画線検出システム及び区画線検出方法は、高速走行時に遠方の区画線や路面形状を早い段階から把握することができるので、例えば、車線逸脱防止支援制御や車線維持支援制御等における制御の継続性や自車両の挙動の安定性を高めることができる。更に、この区画線検出システム及び区画線検出方法は、自車両に対する近傍側と遠方側とにおけるそれぞれの演算処理が他方の側の演算処理の影響を受けないので、そのそれぞれの演算処理の負荷や時間の増大を回避することができる。
尚、例えば前述した特許文献3等の技術のように、画像情報の中の遠方の領域に消失点や不動点を設定し、この消失点等を起点にして区画線(白線)の検出を行う、というものが従来から知られている。しかしながら、その消失点等は、撮像装置のレンズ焦点と撮像面とで予め決められてしまうものであり、必ずしも路面領域に設定されるとは限らず、立体物や背景の存在している領域に設定される場合もある。このため、このような従来の技術では、本実施例の区画線検出システム及び区画線検出方法で得られる上記のような効果を奏することができない場合がある。
ところで、本実施例では、区画線の検出対象領域に必ず区画線が存在している又は当該検出対象領域から必ず区画線が検出されるものとして説明をした。しかしながら、区画線は、必ずしも全ての路面に設けられているわけではない。また、区画線は、検出対象領域に存在している場合であっても、他車両等によって隠れている可能性もある。そこで、路面領域特定部には、区画線の検出対象領域で区画線が検出されなかった場合、該検出対象領域よりも自車両側に新たな区画線の検出対象領域を設定させる。この場合には、区画線が検出されなかった検出対象領域に対して1つ手前(自車両側)の路面推定領域における一部又は全部の領域を新たな区画線の検出対象領域に設定すればよい。これにより、この区画線検出システム及び区画線検出方法は、検出対象領域で区画線が検出されなかった場合でも、新たな区画線の検出対象領域の設定を繰り返していくことで、何れ区画線が検出されることになる。また、この区画線検出システム及び区画線検出方法は、例えば万が一に最初に設定した区画線の検出対象領域が区画線の存在し得ない領域であったとしても、新たな区画線の検出対象領域を設定し直すことができるので、検出対象領域の設定の誤りを正すことができる。
[変形例]
本変形例の区画線検出システム及び区画線検出方法は、実施例の区画線検出システム及び区画線検出方法において、以下の点について変更したものである。
本変形例の路面領域特定部は、図12に示すように、奥行距離情報(視差値情報)に基づいて、遠方路面領域だけでなく、基準画像情報における自車両の直近の路面領域を特定し、かつ、基準画像情報にて遠方の路面領域と直近の路面領域との間に存在している中間の路面領域も特定する。この路面領域特定部は、実施例と同じように、遠方路面領域を区画線の検出対象領域として特定する。また、この路面領域特定部は、直近の路面領域や中間の路面領域についても区画線の検出対象領域として特定する。その直近の路面領域や中間の路面領域は、実施例で説明した路面推定領域の中から特定する。本変形例の区画線検出部は、その直近の路面領域や中間の路面領域に対しても、実施例と同じようにして区画線の検出処理を行うことができる。
本変形例の検出条件算出部は、遠方路面領域と同じように、直近の路面領域における区画線の検出と路面形状の推定を終えた後で、この路面領域における次回の区画線の検出処理工程で使う検出条件を算出する。ここでは、遠方路面領域における検出条件を第1検出条件とし、直近の路面領域における検出条件を第2検出条件とする。そして、この検出条件算出部は、その第1及び第2の検出条件に基づいて、中間の路面領域における区画線を検出するための第3検出条件を算出する。
ここで、撮像された区画線は、遠方に存在しているものと近傍に存在しているものとを比較すると、時間帯や天候に応じて輝度値やエッジ強度が異なる場合がある。
例えば、昼間においては、遠方路面領域ほど、直近の路面領域や中間の路面領域と比べて輝度値が小さく、エッジ強度が低くなっていることがある。このため、前述した上限閾値と下限閾値は、直近の路面領域の値よりも中間の路面領域の値、中間の路面領域の値よりも遠方路面領域の値の方が小さくなる。よって、本変形例の検出条件算出部は、第1検出条件と第2検出条件とを把握することによって、これらの間を補完する値の第3検出条件を推定することができる。その第3検出条件には、例えば、第1検出条件と第2検出条件におけるそれぞれの値の平均値を用いればよい。
また、例えば、夜間や曇天時においては、自車両の前照灯の光軸と撮像装置10の画角次第で、また、その前照灯がハイビームなのかロービームなのかによって、自車両に近い領域の方が遠い領域よりも輝度値が小さくなっている(エッジ強度が低くなっている)場合もあれば、自車両から遠い領域の方が近い領域よりも輝度値が小さくなっている(エッジ強度が低くなっている)場合もある。また、雨天時には、その降雨量次第で、遠近それぞれにおいての輝度値(エッジ強度)が異なる場合もある。よって、検出条件算出部には、これらの諸条件に応じて、第1検出条件と第2検出条件とから第3検出条件を推定させればよい。
また、検出条件算出部には、上記のそれぞれの条件に応じた補正値を予め設定しておき、該当する条件の補正値と第1検出条件と第2検出条件とに基づいて第3検出条件を推定させてもよい。
尚、この例示では、区画線の検出対象領域を遠近で3つの路面領域に分けて説明をした。しかしながら、区画線の検出対象領域を遠近で4つ以上の路面領域に分けてもよく、この場合には、2つの路面領域におけるそれぞれの検出条件に基づいて、この2つの路面領域の間に存在している路面領域の検出条件を検出条件算出部に算出させればよい。
このように、本変形例の区画線検出システム及び区画線検出方法は、区画線の検出対象領域としての2つの路面領域のそれぞれの検出条件に基づいて、この2つの路面領域の間に存在している中間の路面領域の検出条件を求める。このため、この区画線検出システム及び区画線検出方法は、その中間の路面領域においての区画線の検出や路面形状の推定が終わるのを待たなくても、この中間の路面領域で使う検出条件に予め当たりをつけることができるので、区画線の検出精度や検出の成功率を向上させることができる。
1 区画線検出システム
10 撮像装置
20 区画線検出ECU

Claims (5)

  1. 自車両の周辺を撮像する撮像装置と、
    前記撮像装置で撮像された撮像領域内の画像情報に基づいて当該撮像装置から撮像物までの奥行距離情報を抽出する情報抽出部と、
    前記奥行距離情報に基づいて、前記画像情報における自車両の直近の路面領域を除く路面領域で、かつ、自車両よりも遠方の路面領域である遠方路面領域を特定する路面領域特定部と、
    前記遠方路面領域の位置に対応する画像情報に基づいて当該遠方路面領域の区画線を検出する区画線検出部と、
    を備えることを特徴とした区画線検出システム。
  2. 前記区画線検出部が前記区画線を検出するための検出条件を算出する検出条件算出部を設け、
    前記路面領域特定部は、前記奥行距離情報に基づいて、前記画像情報における自車両の前記直近の路面領域を特定し、かつ、前記画像情報にて前記遠方路面領域と前記直近の路面領域との間に存在している中間の路面領域を特定し、
    前記検出条件算出部は、前記遠方路面領域における区画線を検出するための第1検出条件と、前記直近の路面領域における区画線を検出するための第2検出条件と、を算出し、該第1及び第2の検出条件に基づいて前記中間の路面領域における区画線を検出するための第3検出条件を算出することを特徴とした請求項1に記載の区画線検出システム。
  3. 前記検出条件算出部は、前記直近の路面領域と前記中間の路面領域と前記遠方路面領域における各々の区画線のエッジ強度に基づいて、前記直近の路面領域と前記中間の路面領域と前記遠方路面領域における各々の前記検出条件を算出することを特徴とした請求項2に記載の区画線検出システム。
  4. 前記路面領域特定部は、前記遠方路面領域で区画線が検出されなかった場合、該遠方路面領域よりも自車両側に新たな遠方路面領域を特定することを特徴とした請求項1,2又は3に記載の区画線検出システム。
  5. 自車両の周辺を撮像する撮像装置で撮像された撮像領域内の画像情報に基づいて当該撮像装置から撮像物までの奥行距離情報を抽出する抽出工程と、
    前記奥行距離情報に基づいて、前記画像情報における自車両の直近の路面領域を除く路面領域で、かつ、自車両よりも遠方の路面領域である遠方路面領域を特定する特定工程と、
    前記遠方路面領域の位置に対応する画像情報に基づいて当該遠方路面領域の区画線を検出する区画線検出工程と、
    を備えることを特徴とした区画線検出方法。
JP2014022838A 2014-02-07 2014-02-07 区画線検出システム及び区画線検出方法 Active JP5874756B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014022838A JP5874756B2 (ja) 2014-02-07 2014-02-07 区画線検出システム及び区画線検出方法
US14/613,973 US9536155B2 (en) 2014-02-07 2015-02-04 Marking line detection system and marking line detection method of a distant road surface area
CN201510062275.2A CN104834889B (zh) 2014-02-07 2015-02-05 标志线检测系统和标志线检测方法
EP15154111.7A EP2905725B1 (en) 2014-02-07 2015-02-06 Marking line detection system and marking line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022838A JP5874756B2 (ja) 2014-02-07 2014-02-07 区画線検出システム及び区画線検出方法

Publications (2)

Publication Number Publication Date
JP2015149028A true JP2015149028A (ja) 2015-08-20
JP5874756B2 JP5874756B2 (ja) 2016-03-02

Family

ID=52462826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022838A Active JP5874756B2 (ja) 2014-02-07 2014-02-07 区画線検出システム及び区画線検出方法

Country Status (4)

Country Link
US (1) US9536155B2 (ja)
EP (1) EP2905725B1 (ja)
JP (1) JP5874756B2 (ja)
CN (1) CN104834889B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040390A (ja) * 2017-08-25 2019-03-14 株式会社デンソー 車両制御装置
JP2019114149A (ja) * 2017-12-25 2019-07-11 株式会社Subaru 車外環境認識装置
US11164012B2 (en) * 2017-06-28 2021-11-02 Huawei Technologies Co., Ltd. Advanced driver assistance system and method
WO2022145054A1 (ja) * 2021-01-04 2022-07-07 日本電気株式会社 画像処理装置、画像処理方法、及び記録媒体
WO2022259373A1 (ja) * 2021-06-08 2022-12-15 日本電信電話株式会社 認識装置、認識方法、及び認識プログラム

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551026B1 (ko) * 2013-12-24 2015-09-07 현대자동차주식회사 차량 검출 방법
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法
JP2015200976A (ja) * 2014-04-04 2015-11-12 富士通株式会社 移動量推定装置、移動量推定方法、およびプログラム
JP6285321B2 (ja) * 2014-08-25 2018-02-28 株式会社Soken 道路形状認識装置
US9807340B2 (en) * 2014-11-25 2017-10-31 Electronics And Telecommunications Research Institute Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
US9628659B2 (en) * 2015-01-08 2017-04-18 GM Global Technology Operations LLC Method and apparatus for inspecting an object employing machine vision
JP6396850B2 (ja) * 2015-05-29 2018-09-26 株式会社デンソー 運転支援装置及び運転支援方法
CN105788291B (zh) * 2016-02-23 2018-07-31 中山大学 一种车辆速度和位置的检测方法和装置
WO2017154389A1 (ja) * 2016-03-10 2017-09-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6406289B2 (ja) * 2016-03-14 2018-10-17 オムロン株式会社 路面形状測定装置、測定方法、及び、プログラム
JP6711395B2 (ja) * 2016-03-17 2020-06-17 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム
JP6665925B2 (ja) * 2016-03-18 2020-03-13 株式会社リコー 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法
US10650526B2 (en) * 2016-06-28 2020-05-12 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN106203398B (zh) * 2016-07-26 2019-08-13 东软集团股份有限公司 一种检测车道边界的方法、装置和设备
JP6611353B2 (ja) * 2016-08-01 2019-11-27 クラリオン株式会社 画像処理装置、外界認識装置
CN106339710B (zh) * 2016-08-25 2019-09-24 凌云光技术集团有限责任公司 一种边缘宽度缺陷检测方法及装置
JP2018092596A (ja) * 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
JP2018173834A (ja) * 2017-03-31 2018-11-08 本田技研工業株式会社 車両制御装置
US10633027B2 (en) * 2017-06-21 2020-04-28 Toyota Research Institute, Inc. Enhanced virtual lane marker data for conveying a vehicle operational state
CN107578046B (zh) * 2017-08-11 2021-01-22 中国人民解放军63653部队 一种基于图像二值化处理的辅助车辆行驶方法
JP6960827B2 (ja) * 2017-11-08 2021-11-05 フォルシアクラリオン・エレクトロニクス株式会社 路面領域検出装置
CN107766847B (zh) * 2017-11-21 2020-10-30 海信集团有限公司 一种车道线检测方法及装置
CN108388875B (zh) * 2018-03-12 2020-09-04 海信集团有限公司 路面相关线的校验方法、装置及存储介质
US10839139B2 (en) 2018-04-17 2020-11-17 Adobe Inc. Glyph aware snapping
EP3567518B1 (en) * 2018-05-08 2022-05-18 Aptiv Technologies Limited Lane marker recognition
JP7134780B2 (ja) * 2018-08-13 2022-09-12 日立Astemo株式会社 ステレオカメラ装置
US10976747B2 (en) * 2018-10-29 2021-04-13 Here Global B.V. Method and apparatus for generating a representation of an environment
JP7236857B2 (ja) 2018-12-14 2023-03-10 株式会社デンソーテン 画像処理装置および画像処理方法
JP7195131B2 (ja) 2018-12-14 2022-12-23 株式会社デンソーテン 画像処理装置および画像処理方法
JP7252750B2 (ja) 2018-12-14 2023-04-05 株式会社デンソーテン 画像処理装置および画像処理方法
JP7359541B2 (ja) 2018-12-14 2023-10-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203587B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095623A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203586B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095620A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7226986B2 (ja) 2018-12-14 2023-02-21 株式会社デンソーテン 画像処理装置および画像処理方法
JP7141940B2 (ja) 2018-12-14 2022-09-26 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095624A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置、および画像処理方法
CN109816720B (zh) * 2018-12-21 2021-07-20 歌尔光学科技有限公司 道路中心检测方法、机载设备及存储介质
US10846878B2 (en) * 2019-03-28 2020-11-24 Adobe Inc. Multi-axis equal spacing smart guides
US10832442B2 (en) 2019-03-28 2020-11-10 Adobe Inc. Displaying smart guides for object placement based on sub-objects of reference objects
CN110824299B (zh) * 2019-11-25 2021-11-16 云南电网有限责任公司临沧供电局 基于零序电流曲线簇的二维平面判断的故障选线方法
US11511576B2 (en) * 2020-01-24 2022-11-29 Ford Global Technologies, Llc Remote trailer maneuver assist system
KR20210124603A (ko) * 2020-04-06 2021-10-15 현대자동차주식회사 차량의 자율 주행 제어 장치, 그를 포함한 시스템 및 그 방법
JP7380443B2 (ja) * 2020-06-22 2023-11-15 トヨタ自動車株式会社 部分画像生成装置及び部分画像生成用コンピュータプログラム
JP7354952B2 (ja) * 2020-07-14 2023-10-03 トヨタ自動車株式会社 情報処理装置、情報処理方法、およびプログラム
KR20220028709A (ko) * 2020-08-31 2022-03-08 현대모비스 주식회사 차량용 주행 제어방법 및 시스템
JP7345515B2 (ja) * 2021-03-29 2023-09-15 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN113436190B (zh) * 2021-07-30 2023-03-14 重庆长安汽车股份有限公司 一种基于车道线曲线系数的车道线质量计算方法、装置及汽车
US11541910B1 (en) * 2022-01-07 2023-01-03 Plusai, Inc. Methods and apparatus for navigation of an autonomous vehicle based on a location of the autonomous vehicle relative to shouldered objects
US11840257B2 (en) * 2022-03-25 2023-12-12 Embark Trucks Inc. Lane change determination for vehicle on shoulder

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
WO2013190719A1 (ja) * 2012-06-19 2013-12-27 トヨタ自動車株式会社 路側物検出装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3227247B2 (ja) * 1993-01-27 2001-11-12 マツダ株式会社 走行路検出装置
JP3214364B2 (ja) * 1996-08-14 2001-10-02 富士電機株式会社 車間距離測定装置
JP2001101428A (ja) 1999-10-01 2001-04-13 Fujitsu Ten Ltd 画像処理装置
JP3867542B2 (ja) 2001-10-09 2007-01-10 日産自動車株式会社 白線検出装置
JP4847779B2 (ja) 2006-04-13 2011-12-28 株式会社日立製作所 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム
JP2009041972A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
US8204277B2 (en) * 2008-07-18 2012-06-19 GM Global Technology Operations LLC Apparatus and method for camera-bases lane marker detection
JP2010060371A (ja) 2008-09-02 2010-03-18 Omron Corp 物体検出装置
JP5325765B2 (ja) * 2009-12-28 2013-10-23 日立オートモティブシステムズ株式会社 路肩検出装置及び路肩検出装置を用いた車両
JP5321497B2 (ja) 2010-02-22 2013-10-23 株式会社デンソー 白線認識装置
JP5538098B2 (ja) 2010-06-30 2014-07-02 富士重工業株式会社 車両用白線認識装置
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
WO2013190719A1 (ja) * 2012-06-19 2013-12-27 トヨタ自動車株式会社 路側物検出装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164012B2 (en) * 2017-06-28 2021-11-02 Huawei Technologies Co., Ltd. Advanced driver assistance system and method
JP2019040390A (ja) * 2017-08-25 2019-03-14 株式会社デンソー 車両制御装置
JP7013727B2 (ja) 2017-08-25 2022-02-01 株式会社デンソー 車両制御装置
JP2019114149A (ja) * 2017-12-25 2019-07-11 株式会社Subaru 車外環境認識装置
US10803605B2 (en) 2017-12-25 2020-10-13 Subaru Corporation Vehicle exterior environment recognition apparatus
WO2022145054A1 (ja) * 2021-01-04 2022-07-07 日本電気株式会社 画像処理装置、画像処理方法、及び記録媒体
WO2022259373A1 (ja) * 2021-06-08 2022-12-15 日本電信電話株式会社 認識装置、認識方法、及び認識プログラム

Also Published As

Publication number Publication date
CN104834889B (zh) 2018-10-16
US20150227800A1 (en) 2015-08-13
EP2905725B1 (en) 2022-04-06
EP2905725A2 (en) 2015-08-12
CN104834889A (zh) 2015-08-12
JP5874756B2 (ja) 2016-03-02
US9536155B2 (en) 2017-01-03
EP2905725A3 (en) 2016-01-13

Similar Documents

Publication Publication Date Title
JP5874756B2 (ja) 区画線検出システム及び区画線検出方法
US8737689B2 (en) Environment recognition device and environment recognition method
US9789820B2 (en) Object detection apparatus
CN105046198B (zh) 一种车道检测方法
US10891738B2 (en) Boundary line recognition apparatus and branch road determination apparatus
US9697421B2 (en) Stereoscopic camera apparatus
JP3780848B2 (ja) 車両の走行路認識装置
KR101605514B1 (ko) 차선 인식 장치 및 방법
JP5591730B2 (ja) 環境認識装置
US20120133739A1 (en) Image processing apparatus
US9099005B2 (en) Environment recognition device and environment recognition method
JP2007234019A (ja) 車両画像領域特定装置およびその方法
JP5874770B2 (ja) 区画線検出システム
KR20110001427A (ko) 관심영역 추출에 의한 차선 고속검출 방법
US20180005073A1 (en) Road recognition apparatus
TW201938414A (zh) 車道線偵測方法
JP6426512B2 (ja) 走行区画線認識装置
JP5805619B2 (ja) 境界線認識装置
JP2008027046A (ja) 車線認識装置
JP2010271969A (ja) 車線検出装置
JP6132807B2 (ja) レーンマーク認識装置
JP7043787B2 (ja) 対象物検知システム
WO2014050285A1 (ja) ステレオカメラ装置
JP2017156965A (ja) 道路領域検出装置
JP2018170663A (ja) 虚像判定システムおよびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R151 Written notification of patent or utility model registration

Ref document number: 5874756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151