JP2015179368A - 走行区画線認識装置及び走行区画線認識プログラム - Google Patents

走行区画線認識装置及び走行区画線認識プログラム Download PDF

Info

Publication number
JP2015179368A
JP2015179368A JP2014056075A JP2014056075A JP2015179368A JP 2015179368 A JP2015179368 A JP 2015179368A JP 2014056075 A JP2014056075 A JP 2014056075A JP 2014056075 A JP2014056075 A JP 2014056075A JP 2015179368 A JP2015179368 A JP 2015179368A
Authority
JP
Japan
Prior art keywords
region
far
extraction
edge point
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014056075A
Other languages
English (en)
Inventor
祐輔 上田
Yusuke Ueda
祐輔 上田
直輝 川嵜
Naoteru Kawasaki
直輝 川嵜
俊也 熊野
Toshiya Kumano
俊也 熊野
俊輔 鈴木
Shunsuke Suzuki
俊輔 鈴木
哲哉 高藤
Tetsuya Takato
哲哉 高藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2014056075A priority Critical patent/JP2015179368A/ja
Priority to US14/660,198 priority patent/US20150269445A1/en
Publication of JP2015179368A publication Critical patent/JP2015179368A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】演算負荷を低減させるとともに、遠方区画線の認識率の低下を抑制することが可能な走行区画線認識装置を提供する。
【解決手段】車載カメラ10により取得された車両周辺の道路の画像において、道路の区画線を構成するエッジ点を抽出する領域を、近傍領域71と遠方領域72とに二分する分割手段30と、遠方領域72の一部に遠方エッジ点を抽出する抽出領域を設定する抽出領域設定手段51と、抽出領域設定手段51により設定された抽出領域内の遠方エッジ点を抽出する遠方エッジ点抽出手段52と、遠方エッジ点抽出手段52により抽出された遠方エッジ点に基づいて、遠方の道路パラメータを推定する遠方道路パラメータ推定手段53と、を備え、抽出領域設定手段51は、予め取得された車線曲率を用いて、遠方領域72における区画線の位置を予測し、予測した区画線の位置を含むように抽出領域を設定する。
【選択図】 図1

Description

本発明は、車両の運転支援等のために、道路の走行区画線を認識する装置、及びそのプログラムに関する。
従来、道路のいわゆる白線である区画線を認識する装置を用いて、レーンキープや車線逸脱警報等の運転支援が行われている。特に、レーンキープは、遠方の区画線まで高精度に認識できる装置を用いると、車線逸脱の予測精度を高め、安定して行うことができる。そのため、レーンキープでは、遠方区画線を高精度に認識できる装置を用いることが望まれる。
そこで、特許文献1は、遠方区画線を高精度に認識する走行区画線認識装置を提案している。特許文献1の走行区画線認識装置は、区画線のエッジ点抽出領域を近傍と遠方とに分割している。そして、近傍で抽出された近傍エッジ点に基づいて近傍道路パラメータを算出し、算出した近傍道路パラメータに基づいて、遠方で区画線が存在する位置を予測している。さらに、遠方で抽出された遠方エッジ点の中から、予測される区画線が存在する位置に対応する遠方エッジ点を選択し、選択した遠方エッジ点を用いて遠方道路パラメータを算出している。
特開2013−196341号公報
特許文献1は、遠方エッジ点を抽出した後に、区画線の予測位置を用いて遠方エッジ点を絞り込んでいるが、遠方エッジ点の抽出領域は絞り込んでいないため、遠方エッジ点抽出の演算負荷が大きい。しかしながら、演算負荷を低減するために、遠方エッジ点の抽出領域を単純に狭くすれば、抽出領域内に遠方区画線が入らず、遠方区画線の認識率が低下するおそれがある。
本発明は、上記実情に鑑み、演算負荷を低減させるとともに、遠方区画線の認識率の低下を抑制することが可能な走行区画線認識装置を提供することを主たる目的とする。
上記課題を解決するため、本発明は走行区画線認識装置であって、車載カメラにより取得された車両周辺の道路の画像において、前記道路の区画線を構成するエッジ点を抽出する領域を、前記車両から所定距離内の近傍領域と、前記車両から前記所定距離を超えた遠方領域とに二分する分割手段と、前記遠方領域の一部に前記エッジ点を抽出する抽出領域を設定する抽出領域設定手段と、前記抽出領域設定手段により設定された前記抽出領域内の前記エッジ点を抽出する遠方エッジ点抽出手段と、前記遠方エッジ点抽出手段により抽出された前記エッジ点に基づいて、遠方の道路パラメータを推定する遠方道路パラメータ推定手段と、を備え、前記抽出領域設定手段は、予め取得された前記道路の曲率を用いて、前記遠方領域における前記区画線の位置を予測し、予測した前記区画線の位置を含むように前記抽出領域を設定する。
本発明によれば、車載カメラにより取得された画像において、区画線を構成するエッジ点を抽出する領域が、車両から所定距離内の近傍領域と、車両から所定距離を超えた遠方領域とに二分される。そして、遠方領域の一部に遠方エッジ点を抽出する抽出領域が設定され、設定された抽出領域内の遠方エッジ点が抽出され、抽出された遠方エッジ点に基づいて遠方道路パラメータが推定される。
ここで、遠方エッジ点の抽出領域は、予め取得された道路の曲率を用いて予測された区画線の位置を含むように設定される。それゆえ、遠方の区画線が抽出領域から外れるおそれが低下する。また、抽出領域が限定されるため、エッジ点を抽出する演算負荷は低減される。したがって、演算負荷を低減させるとともに、遠方領域における区画線の認識率の低下を抑制することができる。
運転支援システムの構成を示す図。 走行区画線認識装置の機能を示すブロック図。 ピッチング量を説明する図。 道路パラメータを推定する処理手順を示すフローチャート。 遠方白線を認識する処理手順を示すフローチャート。 直線道路に設定された遠方エッジ点の抽出領域を示す図。 カーブ道路に設定された遠方エッジ点の抽出領域を示す図。 遠方エッジ点の抽出領域を示す図。
以下、走行区画線認識装置を具現化した実施形態について、図面を参照しつつ説明する。まず、図1を参照して、本実施形態に係る走行区画線認識装置20を適用した運転支援システム90の構成について説明する。
運転支援システム90は、車載カメラ10、車両の走行速度を測定する車速センサ11、ヨーレートを想定するヨーレートセンサ12、車両の操舵角を測定する操舵角センサ13、走行区画線認識装置20、及び警報・車両制御装置60を備えている。
車載カメラ10は、CCDカメラ、CMOSイメージセンサ、近赤外線カメラ等であり、車両の前方の道路を撮影するように、車両に搭載されている。詳しくは、車載カメラ10は、車両の車幅方向の中央、例えばルームミラーに取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を所定の時間間隔で撮影する。車載カメラ10により撮影された車両周辺の道路の画像情報は、走行区画線認識装置20へ送信される。
走行区画線認識装置20は、CPU、ROM、RAM、及びI/O等から構成されるコンピュータである。CPUがROMにインストールされている走行区画線認識プログラムを実行することにより、領域分割手段30、近傍白線認識手段40、遠方白線認識手段50の各種機能を実現する。なお、記録媒体に記憶されている走行区画線認識プログラムを、コンピュータに読み込んでもよい。
領域分割手段30は、車載カメラ10により取得された画像において、道路の白線(区画線)を構成するエッジ点を抽出する領域を、近傍領域71と遠方領域72とに二分する(図6参照)。エッジ点を抽出する領域は、全画像領域とは限らず、車両から第1距離までの領域をいう。近傍領域71は、車両から第2距離(所定距離)内の領域であり、遠方領域72は、車両から第2距離を超えた領域である。第2距離は第1距離よりも短い距離である。
近傍白線認識手段40は、近傍領域71から近傍白線のエッジ点を抽出し、抽出した近傍エッジ点をハフ変換して白線候補の直線を算出する。近傍白線認識手段40は、算出した白線候補を絞り込んで、最も白線らしい白線候補を左右1つずつ選択する。詳しくは、近傍白線認識手段40は、エッジ強度が閾値よりも大きいこと、エッジ点が略直線上に並んでいること、太さが規格値に近いこと等の白線の特徴を考慮して、算出した白線候補の中から最も白線らしい白線候補を絞り込む。
さらに、近傍白線認識手段40は、図2に示すように、選択した白線候補を構成する画像座標上の近傍エッジ点を、道路面を平面と仮定した平面座標(鳥瞰座標)上の近傍エッジ点に変換する。これに伴い、画像座標上の近傍領域71は、平面座標上の近傍領域71aに変換される。近傍エッジ点を平面座標上の情報とすることで、過去の撮影画像に基づくエッジ点の座標情報との組合せを容易に行うことができる。
次に、近傍白線認識手段40は、平面座標上の近傍エッジ点を用いて、近傍の道路パラメータを算出する。近傍の道路パラメータは、車線位置、車線傾き、車線曲率(道路の曲率)、車線幅、曲率変化率、及びピッチング量である。車線位置は、車載カメラ10を中心として進行方向に伸びる中心線から、道路の幅方向の中心までの距離であり、車両の道路幅方向の変位を表す。車両が道路の中央を走行している場合に、車線位置は0となる。車線傾きは、左右の白線の中央を通過する仮想的な中央線の接線の車両進行方向に対する傾きであり、車両のヨー角を表す。車線曲率は、左右の白線の中央を通過する仮想的な中央線の曲率である。車線幅は、車両の中心線と直交する方向における左右の白線の間隔であり、道路の幅を表す。ピッチング量は、図3に示すように、車両が静止している状態を基準とした画像の縦方向の変位から求められる。
上記各パラメータは、今回抽出した近傍エッジ点、及び過去の画像に基づいて抽出した近傍エッジ点(履歴エッジ点)に基づき、算出される。図2の平面画像41において、近傍領域71a内のエッジ点が今回抽出した近傍エッジ点であり、それ以外は履歴エッジ点である。履歴エッジ点は、過去に抽出された近傍エッジ点の座標を、測定された車速及びヨーレートに基づいて移動させることにより算出される。
遠方白線認識手段50は、遠方エッジ点抽出領域設定手段51、遠方エッジ点抽出手段52、及び遠方道路パラメータ推定手段53を備える。
遠方エッジ点抽出領域設定手段51は、遠方領域72の一部に、遠方エッジ点を抽出する遠方エッジ点抽出領域を設定する(図6参照)。詳しくは、遠方エッジ点抽出領域設定手段51は、近傍白線認識手段40により算出された近傍の車線曲率及び曲率変化率を用いて、画像座標上の遠方領域72における白線の位置を予測し、予測した白線の位置を含むように、遠方エッジ点抽出領域を設定する。
遠方エッジ点抽出手段52は、遠方エッジ点抽出領域内の遠方エッジ点を抽出する。さらに、遠方エッジ点抽出手段52は、白線の種々の特徴を考慮して、抽出した遠方エッジ点から遠方の白線を構成する遠方エッジ点を絞り込む。
遠方道路パラメータ推定手段53は、絞り込まれた遠方エッジ点に基づいて、遠方の道路パラメータを推定する。詳しくは、遠方道路パラメータ推定手段53は、今回算出された近傍の道路パラメータを初期値として、拡張カルマンフィルタを用いて遠方の道路パラメータを推定する。推定される遠方の道路パラメータは、車線位置、車線傾き、車線曲率、車線幅、曲率変化率、及びピッチング量である。
警報・車両制御装置60は、走行区画線認識装置20により推定された近傍の道路パラメータ、及び遠方の道路パラメータを用いて運転支援を行う。詳しくは、警報・車両制御装置60は、近傍の道路パラメータに基づいて車両と左右の白線との距離をそれぞれ算出し、車両と左右の白線のいずれかとの距離が閾値よりも近くなった場合に、ドライバに警報を与える車線逸脱警報を行う。
また、警報・車両制御装置60は、遠方の道路パラメータに基づいて、車両の進行方向の車線に合わせて操舵を補助するレーンキープ制御を行う。さらに、警報・車両制御装置60は、走行中の車線を先行する他車両との距離が近づいたときに、ドライバに警報を与える衝突警報を行う。
次に、道路パラメータを推定する処理手順について、図4のフローチャートを参照して説明する。本処理手順は、車載カメラ10により画像が取得される都度、走行区画線認識装置20が実行する。
まず、車載カメラ10により取得された画像において、エッジ点を抽出する領域を、近傍領域71と遠方領域72とに二分する(S10)。
続いて、近傍の白線認識を行う(S20)。まず、近傍領域71において、近傍エッジ点を抽出する。画像情報の精度の高い近傍領域71では、遠方領域72よりもノイズを抽出する可能性が低いので、近傍領域71全体を近傍エッジ点の抽出領域とする。そして、抽出したエッジ点のうち、近傍白線を構成するエッジ点に基づいて、近傍の道路パラメータを推定する。
続いて、遠方の白線認識を行い、遠方の道路パラメータを推定する(S30)。遠方の白線認識処理については、後で詳述する。
次に、遠方の白線認識処理(S30)の処理手順について、図5のフローチャートを参照して説明する。
まず、近傍の白線認識(S20)で算出された車線曲率及び曲率変化率を用いて、遠方領域72における左側及び右側の白線の位置を予測する。そして、予測した左側及び右側の白線の位置を含むように、遠方領域72の一部に、遠方エッジ点抽出領域を左右それぞれ独立して設定する。詳しくは、予測した左右それぞれの白線の位置を中心として、横幅方向に予測誤差分の所定画素数を広げた領域を、左右の遠方エッジ点抽出領域とする。
ここで、S20において、左側及び右側の白線の曲率をそれぞれ車線曲率として算出しておき、左側及び右側の白線のそれぞれに対応する遠方エッジ点の抽出領域を、左側及び右側の白線のそれぞれの曲率を用いて、独立して設定するようにしてもよい。このようにすれば、左右の遠方エッジ点の抽出領域をそれぞれ適切に設定できる。
さらに、S20で算出されたピッチング量を用いて、遠方領域72における白線の画像の縦方向におけるずれ量を推定する。そして、左側及び右側の遠方エッジ点抽出領域を、推定したずれ量の分だけ画像の縦方向にずらして設定する。
図6に遠方エッジ点抽出領域を直線道路に設定した態様を示し、図7に遠方エッジ点抽出領域をカーブ道路に設定した態様を示す。道路曲率及び曲率変化率を用いて遠方エッジ点抽出領域を設定しているため、カーブ道路においても、カーブした白線を含むように、直線道路と同程度の面積の遠方エッジ点抽出領域を設定することができる。
また、車速が速いほど、遠方領域72における白線の位置の予測誤差が大きくなるおそれがある。そのゆえ、白線を確実に抽出するために、車速センサ11により測定された速度が速いほど、予測誤差分の所定画素数を多くし、遠方エッジ点抽出領域の横幅を広く設定する。
また、操舵角速度が速いほど、遠方領域72における白線の位置の予測誤差が大きくなるおそれある。そのゆえ、白線を確実に抽出するために、操舵角センサ13により測定された操舵角から算出した操舵角速度が速いほど、予測誤差分の所定画素数を多くし、遠方エッジ点抽出領域の横幅を広く設定する。
また、車両から遠方になるほど、遠方領域72における白線の位置の予測誤差が大きくなるおそれがある。そのゆえ、白線を確実に抽出するために、図8に示すように、遠方エッジ点抽出領域の遠方側の予測誤差分の所定画素数を近傍側よりも多くし、遠方側の横幅を近傍側よりも広く設定する。具体的には、車両から遠方になるほど、遠方エッジ点抽出領域の横幅を広く設定する。
さらに、遠方エッジ点抽出領域の面積に関わらず、遠方エッジ点を抽出する際に遠方エッジ点を探索する画素数が所定数よりも少なくなるように、遠方エッジ点抽出領域において遠方エッジ点を探索する探索ラインを設定する。画像の水平方向にエッジ点を探索する場合、探索ラインは画像の水平方向のラインであり、画像の縦方向の位置を表す。
探索ラインは、最大で、遠方エッジ点抽出領域に含まれる縦方向の画素数分設定できる。遠方エッジ点抽出領域の面積、具体的には遠方エッジ点抽出領域の横幅が広い場合に、探索ラインを最大数に設定すると、遠方エッジ点を探索する画素数が増加し、演算負荷が大きくなるおそれがある。
そこで、遠方エッジ点抽出領域の面積が広くなっても、演算負荷が所定量よりも小さくなるように、探索ラインを、最大数から間引いて設定する。例えば、探索ラインを、縦方向に一本間隔で間引いて設定する。近傍側ほどエッジ点の情報精度は高いので、遠方エッジ点抽出領域の遠方側で探索ラインを間引き、近傍側では探索ラインを間引かないようにしてもよい。
また、左右の遠方エッジ点抽出領域の面積が異なる場合には、左右それぞれの遠方エッジ点抽出領域において、探索ラインをそれぞれ独立に設定してもよい。すなわち、左右それぞれの遠方エッジ点抽出領域において、探索ラインを互いに異なる間隔で設定してもよい。
続いて、S31で設定された左右の遠方エッジ点抽出領域内において、設定された探索ラインにそって遠方エッジ点を探索し、遠方エッジ点を抽出する(S32)。
続いて、S32で抽出された遠方エッジ点の中から、遠方の白線を構成する遠方エッジ点を絞り込む(S33)。続いて、S33で絞り込んだエッジ点に基づいて、遠方の道路パラメータを推定する(S34)。以上で本処理を終了する。
以上説明した本実施形態によれば、以下の効果を奏する。
・遠方エッジ点抽出領域は、近傍の白線認識により推定された近傍の車線曲率及び曲率変化率を用いて、遠方領域72において予測された白線の位置を含むように設定される。それゆえ、遠方の白線が遠方エッジ点抽出領域から外れるおそれが低下する。また、遠方エッジ点抽出領域が限定されるため、遠方エッジ点を抽出する演算負荷は低減される。したがって、演算負荷を低減させるとともに、遠方領域72における白線の認識率の低下を抑制することができる。
・近傍の白線認識により推定された近傍のピッチング量を用いて、画像の縦方向のずれ量が推定される。そして、遠方エッジ点抽出領域は、推定されたずれ量に応じて、画像の縦方向にずらして設定される。よって、遠方領域72における白線の認識率の低下をさらに抑制することができる。
・車両の速度が高いほど、白線の位置の予測誤差が大きくなるおそれがある。よって、車両の速度が高いほど遠方エッジ点抽出領域の横幅を広くすることにより、遠方領域72における白線の認識率の低下をさらに抑制できる。
・車両の操舵角速度が高いほど、すなわち急カーブほど、白線の位置の予測誤差が大きくなるおそれがある。よって、車両の操作角速度が高いほど遠方エッジ点抽出領域の横幅を広くすることにより、遠方領域72における白線の認識率の低下をさらに抑制できる。
・車両から遠方になるほど、白線の位置の予測誤差は大きくなるおそれがある。よって、車両から遠方になるほど遠方エッジ点抽出領域の横幅を広くすることにより、遠方領域72における白線の認識率の低下をさらに抑制できる。
・左側の白線及び右側の白線のそれぞれに対応する遠方エッジ点抽出領域は、独立して設定される。これにより、遠方エッジ点抽出領域が左右でそれぞれ限定されるため、遠方エッジ点抽出領域全体の面積が小さくなり、演算負荷を低減できる。また、左右の白線間のノイズの抽出が低減されるため、白線の認識精度を向上させることができる。さらに、左右の遠方エッジ点抽出領域を、左側及び右側の白線のそれぞれの曲率を用いて設定すると、左右の遠方エッジ点抽出領域をそれぞれ適切に設定することができる。
・遠方エッジ点を抽出する際に、遠方エッジ点を探索する画素数が所定数よりも少なくなるように、遠方エッジ点抽出領域において遠方エッジ点を探索する探索ラインが設定される。そのため、遠方の白線の認識率を上げるために遠方エッジ点抽出領域を広くした場合でも、演算負荷が増大するおそれがない。
(他の実施形態)
・遠方エッジ点抽出領域を設定する際に、予め取得された車線曲率及び曲率変化率として、ナビゲーション装置から取得した車線曲率及び曲率変化率を用いてもよい。
・遠方エッジ点抽出領域を設定する際に、予め取得された車線曲率及び曲率変化率として、前回の遠方の白線認識により推定した車線曲率及び曲率変化率を用いてもよい。
・遠方エッジ点抽出領域を設定する際に、予め取得された車線曲率及び曲率変化率として、今回の近傍の白線認識により推定した車線曲率及び曲率変化率と、前回の遠方の白線認識により推定した車線曲率及び曲率変化率とを、加重平均して用いてもよい。この場合、遠方領域72の近傍側では、今回の近傍の白線認識による推定結果の重みを重くし、遠方領域72の遠方側では、前回の遠方の白線認識による推定結果の重みを重くするとよい。
・遠方エッジ点抽出領域を設定する際に、予め取得されたピッチング量として、前後のサスペションの高さを検出するハイトセンサの検出値を用いてもよい。前後のサスペションの高さの差分がピッチング量となる。
・遠方エッジ点抽出領域を設定する際に、予め取得されたピッチング量として、前回の遠方の白線認識により推定したピッチング量を用いてもよい。
・遠方エッジ点抽出領域を設定する際に、予め取得されたピッチング量として、今回の近傍の白線認識により推定したピッチング量と、前回の遠方の白線認識により推定したピッチング量とを、加重平均して用いてもよい。この場合、遠方領域72の近傍側では、今回の近傍の白線認識による推定結果の重みを重くし、遠方領域72の遠方側では、前回の遠方の白線認識による推定結果の重みを重くするとよい。
・遠方エッジ点抽出領域を設定する際に、予め取得された曲率変化率を用いなくてもよい。少なくとも予め取得された車線曲率を用いて、遠方エッジ点抽出領域を設定すればよい。
・遠方エッジ点抽出領域を左右でそれぞれ限定して設定する場合よりも、ノイズが増えるおそれはあるが、遠方エッジ点抽出領域を左右で一体の領域として設定してもよい。
・遠方エッジ点抽出領域の面積に関わらず、遠方エッジ点抽出領域内において、探索ラインを間引かないで設定してもよい。この場合でも、遠方領域72全体を探索する場合よりは、遠方エッジ点を探索する演算負荷を低減できる。
10…車載カメラ、20…走行区画線認識装置、30…領域分割手段、51…遠方エッジ点抽出領域設定手段、52…遠方エッジ点抽出手段、53…遠方道路パラメータ推定手段、71,71a…近傍領域、72…遠方領域。

Claims (8)

  1. 車載カメラ(10)により取得された車両周辺の道路の画像において、前記道路の区画線を構成するエッジ点を抽出する領域を、前記車両から所定距離内の近傍領域(71,71a)と、前記車両から前記所定距離を超えた遠方領域(72)とに二分する分割手段(30)と、
    前記遠方領域の一部に前記エッジ点を抽出する抽出領域を設定する抽出領域設定手段(51)と、
    前記抽出領域設定手段により設定された前記抽出領域内の前記エッジ点を抽出する遠方エッジ点抽出手段(52)と、
    前記遠方エッジ点抽出手段により抽出された前記エッジ点に基づいて、遠方の道路パラメータを推定する遠方道路パラメータ推定手段(53)と、を備え、
    前記抽出領域設定手段は、予め取得された前記道路の曲率を用いて、前記遠方領域における前記区画線の位置を予測し、予測した前記区画線の位置を含むように前記抽出領域を設定することを特徴とする走行区画線認識装置。
  2. 前記抽出領域設定手段は、予め取得された前記車両のピッチング量を用いて、前記遠方領域における前記区画線の前記画像の縦方向のずれ量を推定し、推定した前記ずれ量に応じて前記抽出領域を前記画像の縦方向にずらして設定する請求項1に記載の走行区画線認識装置。
  3. 前記抽出領域設定手段は、前記車両の速度が高いほど前記抽出領域の横幅を広く設定する請求項1又は2に記載の走行区画線認識装置。
  4. 前記抽出領域設定手段は、前記車両の操舵角速度が高いほど前記抽出領域の横幅を広く設定する請求項1〜3のいずれかに記載の走行区画線認識装置。
  5. 前記抽出領域設定手段は、前記車両から遠方になるほど、前記抽出領域の横幅を広く設定する請求項1〜4のいずれかに記載の走行区画線認識装置。
  6. 前記抽出領域設定手段は、前記道路の左側及び右側の区画線のそれぞれに対応する前記抽出領域を、前記左側及び前記右側の区画線のそれぞれの曲率を用いて独立して設定する請求項1〜5のいずれかに記載の走行区画線認識装置。
  7. 前記抽出領域設定手段は、前記抽出領域の面積に関わらず、前記エッジ点を抽出する際に前記エッジ点を探索する画素数が所定数よりも少なくなるように、前記抽出領域において前記エッジ点を探索するラインを設定する請求項1〜6のいずれかに記載の走行区画線認識装置。
  8. コンピュータにインストールされるプログラムであって、
    前記コンピュータに、請求項1〜7のいずれかに記載の走行区画線認識装置が備える各手段を実現させることを特徴とする走行区画線認識プログラム。
JP2014056075A 2014-03-19 2014-03-19 走行区画線認識装置及び走行区画線認識プログラム Pending JP2015179368A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014056075A JP2015179368A (ja) 2014-03-19 2014-03-19 走行区画線認識装置及び走行区画線認識プログラム
US14/660,198 US20150269445A1 (en) 2014-03-19 2015-03-17 Travel division line recognition apparatus and travel division line recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014056075A JP2015179368A (ja) 2014-03-19 2014-03-19 走行区画線認識装置及び走行区画線認識プログラム

Publications (1)

Publication Number Publication Date
JP2015179368A true JP2015179368A (ja) 2015-10-08

Family

ID=54142434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014056075A Pending JP2015179368A (ja) 2014-03-19 2014-03-19 走行区画線認識装置及び走行区画線認識プログラム

Country Status (2)

Country Link
US (1) US20150269445A1 (ja)
JP (1) JP2015179368A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111632A (ja) * 2015-12-16 2017-06-22 トヨタ自動車株式会社 情報演算装置
KR20180078773A (ko) * 2016-12-30 2018-07-10 주식회사 유라코퍼레이션 차선 보정 시스템 및 그 보정 방법
JP2018136848A (ja) * 2017-02-23 2018-08-30 株式会社デンソー 運転者監視装置
JP2018169888A (ja) * 2017-03-30 2018-11-01 株式会社デンソー 道路パラメータ推定装置
JP2019014407A (ja) * 2017-07-10 2019-01-31 株式会社Soken 走路認識装置
WO2019207872A1 (ja) * 2018-04-23 2019-10-31 クラリオン株式会社 情報処理装置及び情報処理方法
WO2022145054A1 (ja) * 2021-01-04 2022-07-07 日本電気株式会社 画像処理装置、画像処理方法、及び記録媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6412460B2 (ja) * 2015-04-14 2018-10-24 株式会社Soken 走行路推定装置
JP6637399B2 (ja) * 2016-09-30 2020-01-29 株式会社デンソー 領域認識装置及び領域認識方法
JP6575479B2 (ja) * 2016-10-13 2019-09-18 トヨタ自動車株式会社 車線維持支援装置
CN108267758B (zh) * 2016-12-30 2021-08-10 沈阳美行科技有限公司 一种车辆定位、导航方法和装置及相关系统、应用
JP6889005B2 (ja) * 2017-04-05 2021-06-18 株式会社Soken 道路パラメータ推定装置
CN115248448B (zh) * 2022-09-22 2022-12-16 毫末智行科技有限公司 基于激光雷达的路沿检测方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225308A (ja) * 1993-01-27 1994-08-12 Mazda Motor Corp 走行路検出装置
JP2009134429A (ja) * 2007-11-29 2009-06-18 Aisin Aw Co Ltd 画像認識装置及び画像認識プログラム
JP2014002608A (ja) * 2012-06-19 2014-01-09 Toyota Motor Corp 路側物検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225308A (ja) * 1993-01-27 1994-08-12 Mazda Motor Corp 走行路検出装置
JP2009134429A (ja) * 2007-11-29 2009-06-18 Aisin Aw Co Ltd 画像認識装置及び画像認識プログラム
JP2014002608A (ja) * 2012-06-19 2014-01-09 Toyota Motor Corp 路側物検出装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111632A (ja) * 2015-12-16 2017-06-22 トヨタ自動車株式会社 情報演算装置
US10108865B2 (en) 2015-12-16 2018-10-23 Toyota Jidosha Kabushiki Kaisha Information calculation device
KR20180078773A (ko) * 2016-12-30 2018-07-10 주식회사 유라코퍼레이션 차선 보정 시스템 및 그 보정 방법
JP2018136848A (ja) * 2017-02-23 2018-08-30 株式会社デンソー 運転者監視装置
JP2018169888A (ja) * 2017-03-30 2018-11-01 株式会社デンソー 道路パラメータ推定装置
JP2019014407A (ja) * 2017-07-10 2019-01-31 株式会社Soken 走路認識装置
WO2019207872A1 (ja) * 2018-04-23 2019-10-31 クラリオン株式会社 情報処理装置及び情報処理方法
JP2019191788A (ja) * 2018-04-23 2019-10-31 クラリオン株式会社 情報処理装置及び情報処理方法
JP7187169B2 (ja) 2018-04-23 2022-12-12 フォルシアクラリオン・エレクトロニクス株式会社 情報処理装置及び情報処理方法
US11900698B2 (en) 2018-04-23 2024-02-13 Clarion Co., Ltd. Information processing device and information processing method
WO2022145054A1 (ja) * 2021-01-04 2022-07-07 日本電気株式会社 画像処理装置、画像処理方法、及び記録媒体

Also Published As

Publication number Publication date
US20150269445A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP2015179368A (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP5926080B2 (ja) 走行区画線認識装置およびプログラム
JP6134276B2 (ja) 走行区画線認識装置
US9607227B2 (en) Boundary detection apparatus and boundary detection method
JP5276637B2 (ja) 車線推定装置
JP6473571B2 (ja) Ttc計測装置およびttc計測プログラム
US9460352B2 (en) Lane boundary line recognition device
JP6096723B2 (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP6220327B2 (ja) 走行区画線認識装置、走行区画線認識プログラム
JP6046666B2 (ja) 走路境界推定装置及び走路境界推定方法
JP6774297B2 (ja) 車両認識装置及び車両認識方法
JP6538547B2 (ja) 道路曲率計測装置
CN107209998B (zh) 车道线识别装置以及车道线识别方法
JP6468136B2 (ja) 走行支援装置及び走行支援方法
JP6466811B2 (ja) 走行区画線認識装置
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP6087858B2 (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP6105509B2 (ja) 走路推定装置及び走路推定プログラム
JP2016081361A (ja) 走行区画線認識装置
JP6165120B2 (ja) 走行区画線認識装置
JP6105524B2 (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP2018060422A (ja) 物体検出装置
JP4721278B2 (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP5559650B2 (ja) 車線推定装置
JP2017123009A (ja) 区画線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160906