JP6492469B2 - 自車走行レーン推定装置及びプログラム - Google Patents

自車走行レーン推定装置及びプログラム Download PDF

Info

Publication number
JP6492469B2
JP6492469B2 JP2014182264A JP2014182264A JP6492469B2 JP 6492469 B2 JP6492469 B2 JP 6492469B2 JP 2014182264 A JP2014182264 A JP 2014182264A JP 2014182264 A JP2014182264 A JP 2014182264A JP 6492469 B2 JP6492469 B2 JP 6492469B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
travel
traveling
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014182264A
Other languages
English (en)
Other versions
JP2016057750A (ja
Inventor
チュンジャオ グオ
チュンジャオ グオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2014182264A priority Critical patent/JP6492469B2/ja
Publication of JP2016057750A publication Critical patent/JP2016057750A/ja
Application granted granted Critical
Publication of JP6492469B2 publication Critical patent/JP6492469B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自車走行レーン推定装置及びプログラムに関する。
従来より、自車位置を推定し記録する手段を有し、過去の走行軌跡から自車位置の近傍範囲内にあるものを平均化することで走行軌跡を推定する走行軌跡推定装置が知られている(特許文献1)。
また、車両の軌跡情報を取得し、自車と同一の車線を走行していると判断される車両軌跡を、車線認識に利用する走行車線認識装置が知られている(特許文献2)。
また、非特許文献1では、レーンマークを検出し、その内部を自車線として検出する一般的な方法が記載されている。
障害物の有無を表すグリッドマップを生成し、自車位置とグリッドマップをもとに経路生成を行う方法が知られている(非特許文献2)。
また、詳細な高精度地図に基づき、走行レーン推定などの走行支援を行う方法が知られている(非特許文献3)。
特開2008−14870号公報 特開2013−168016号公報
J. C. McCall and M. M. Trivedi, "Video-based lane estimation and tracking for driver assistance: Survey, system, and evaluation," IEEE Transactions on Intelligent Transport Systems, vol. 7, no. 1, pp. 20−37, Mar. 2006. G. Tanzmeister, M. Friedl, A. Lawitzky, D. Wollherr, and M. Buss, "Road course estimation in unknown, structured environments," in IEEE Intell. Vehicles Symposium, 2013, pp. 630-635. A. Chen, A. Ramanandan, and J. Farrel, High-precision lane-level road map building for vehicle navigation, Proc. of IEEE/ION Position Location and Navigation Symposium, 2010, pp:1035-1042.
上記の特許文献1に記載の技術では、過去の軌跡を平均化して目標軌跡を定めるため、外れ値の影響を受けることがある。また、車線の境界を求める手段を有していない。
上記の特許文献2に記載の技術では、周囲の車両の軌跡情報も利用して走行車線を認識するが、画像情報を用いていない。道路上に車線推定の手がかりとなるパターンがある場合は、それを利用するほうが有効であると考えられる。
上記の非特許文献1に記載の技術では、レーンマークの存在を前提としているため、レーンマークの存在しない道路、レーンマークが劣化した道路、もしくは交差点通過時に、推定を誤ることがある。
上記の非特許文献2に記載の技術では、前方の障害物回避走行可能な経路を検出できるが、走行規制や一般の車の走行パターンを考慮しないため、一般道における自車線推定には適さない。
上記の非特許文献3に記載の技術では、高精度なレーン単位の地図を利用し自車線情報を得ることができるが、高額センサと人手による地図作成コストを要する。更新も莫大なコストを要する。
本発明は、上記の事情を鑑みてなされたもので、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる自車走行レーン推定装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の自車走行レーン推定装置は、自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段と、自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段と、を含んで構成されている。
本発明に係るプログラムは、コンピュータを、自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段、及び自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段として機能させるためのプログラムである。
本発明によれば、車線境界検出手段によって、自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する。そして、自車走行レーン推定手段によって、自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する。
このように、車両走行軌跡と、検出された車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、自車両が走行している仮想的な走行レーンを表すデータを生成することにより、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる。
本発明に係る自車走行レーン推定装置は、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡に基づいて、自車両が走行している車線の境界を推定する車線境界推定手段を更に含み、前記車線境界検出手段は、前記撮像手段によって生成された画像、及び前記車線境界推定手段によって推定された前記車線の境界に基づいて、前記車線の境界を検出するようにすることができる。これによって、車線の境界を精度よく検出することができる。
本発明に係る自車走行レーン推定装置は、自車両の目的地までの走行経路に基づいて、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡のうち、自車両の走行に関連する車両走行軌跡を選択する関連軌跡選択手段を更に含み、前記自車走行レーン推定手段は、前記関連軌跡選択手段によって選択された車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成するようにすることができる。これによって、より精度よく、自車走行レーンを推定することができる。
本発明に係る自車走行レーン推定装置は、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡から、複数の進行方向の各々について、前記進行方向の車両走行軌跡を取得する複数方向軌跡取得手段を更に含み、前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記複数方向軌跡取得手段によって取得された前記進行方向の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成するようにすることができる。これによって、複数の進行方向があるシーンであっても、自車走行レーンを推定することができる。
本発明に係る自車走行レーン推定装置は、複数の走行車線の各々について、前記走行車線の走行軌跡を取得する複数車線軌跡取得手段を更に含み、前記自車走行レーン推定手段は、前記複数の走行車線の各々について、前記複数車線軌跡取得手段によって取得された前記走行車線の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成するようにすることができる。これによって、複数の走行車線があるシーンであっても、自車走行レーンを推定することができる。
上記の自車走行レーン推定手段は、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる各制御点の前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成するようにすることができる。
上記の車線境界検出手段は、前記撮像手段によって生成された画像に基づいて、エッジ点を抽出し、抽出されたエッジ点に基づいて、拡張カルマンフィルタに従って、クロソイドスプラインモデルで用いられるモデルパラメータを推定し、前記推定されたモデルパラメータ及び前記クロソイドスプラインモデルに基づいて、自車両が走行している車線の境界を検出するようにすることができる。
なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。
以上説明したように、本発明の自車走行レーン推定装置及びプログラムによれば、車両走行軌跡と、検出された車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、自車両が走行している仮想的な走行レーンを表すデータを生成することにより、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる、という効果が得られる。
本発明の第1の実施の形態に係る運転支援制御装置を示すブロック図である。 (a)修正された画像の例を示す図、及び(b)車線境界検出指標を示す図である。 (a)エッジ点の抽出結果を示す図、(b)セクション内の線分を示す図、(c)一貫したエッジ境界としてラベルを付けられた線分を示す図、及び(d)レーンマーク境界としてラベルを付けられた線分を示す図である。 (a)レーンマークの検出結果による自車走行レーンの推定結果を示す図、(b)過去の走行軌跡だけを用いて自車走行レーンを推定した結果を示す図、(c)融合されるデータの観測結果を示す図、(d)上記(c)の拡大図、(e)本実施の形態の手法による自車走行レーンの推定結果を示す図、及び(f)検出された道路境界によって生成された仮想的なレーンマークを示す図である。 仮想的な自車走行レーンを推定する際の状態遷移を示す図である。 (a)クロソイドスプラインモデルを用いた仮想的な自車走行レーンの推定結果を示す図、(b)キュービックスプラインモデルを用いた仮想的な自車走行レーンの推定結果を示す図、(c)クロソイドスプラインモデルを用いた観測結果を示す図、及び(d)キュービックスプラインモデルを用いた観測結果を示す図である。 本発明の第1の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。 本発明の第1の実施の形態に係る運転支援制御装置のコンピュータにおける車線境界検出処理の内容を示すフローチャートである。 本発明の第1の実施の形態に係る運転支援制御装置のコンピュータにおけるレーン推定処理の内容を示すフローチャートである。 本発明の第2の実施の形態に係る運転支援制御装置を示すブロック図である。 (a)車両走行軌跡を示す図、(b)空間スコアを視覚化した図、及び(c)投票範囲を示す図である。 本発明の第2の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。 本発明の第3の実施の形態に係る運転支援制御装置を示すブロック図である。 本発明の第3の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。 本発明の第4の実施の形態に係る運転支援制御装置を示すブロック図である。 本発明の第4の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。 本発明の第5の実施の形態に係る運転支援制御装置を示すブロック図である。 本発明の第5の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。 実験における車線境界の検出結果を示す図である。 実験における仮想的な自車走行レーンの推定結果を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、第1の実施の形態では、車線維持制御を行う際の自車走行レーンを推定して運転支援部に出力する運転支援制御装置に、本発明を適用した場合を例に説明する。
<概要>
従来型の車線維持支援(LKA:lane keep assist)システムおよびアダプティブ・クルーズ・コントロール(ACC:adaptive cruise control)システムでは、低レベルの車線検出結果が高レベルの機能のため、そのまま使用される。
本実施の形態は、車線維持支援(LKA)およびアダプティブ・クルーズ・コントロール(ACC)のような高レベルの次世代運転者支援システム(ADAS:advanced driver assistance systems)のために、低レベルのレーンマークなどの車線境界の検出から自車走行レーンを推定する手法に関する。具体的に言うと、本実施の形態は、拡張カルマンフィルタ(EKF)に基づく追跡方式において、オンライン車線境界検出結果を事前の車両走行軌跡と融合させることにより、低レベルのレーンマークなどの車線境界の検出性能を改善すると共に、仮想的な長距離の自車走行レーンを発生させるために車両走行軌跡を使用する一般的な枠組みを提供する。
LKAシステムおよびACCシステムは、特に、カメラのような手頃な価格のセンサを使用した自車走行レーンの推定を必要とする。現在のところ、従来型のLKAシステムおよびACCシステムは、左右のレーンマーク境界の内側の領域が自車走行レーンであると仮定しており、自車走行レーンの推定が、レーンマーク検出に依存している。しかし、日常の交通でこのような機能を実施するために、主に2種類の困難がある。
(1)多くの普通の市街地街路では、レーンマークは、非常に劣悪であるため確実に検出できない。典型的に、交差点付近で、または、小型道路では、走行車線を画定する、または、車線曲率を指示するレーンマークが存在しないことさえある。この場合には、自車走行レーンは、推定される可能性がないので、LKA機能およびACC機能の失敗という結果になる。
(2)明瞭なレーンマークが存在しても、長距離のレーンマーク情報を含んでいる画像パッチの解像度は、非常に低いので、遠方距離における車線境界の情報を取り出すことは、困難である。その上、幹線道路の場面とは違って、普通の市街地街路は、通常、雑然とし、レーンマークは、多くの場合に分断されることがある。その結果、遠方距離において自車走行レーン情報を取得することは、困難である。
本実施の形態では、上記の困難を解決することを目的として、付加情報を提供するために過去の車両走行軌跡を使用する。検出レベルが低い場合、過去の車両走行軌跡は、エッジ点抽出に再重み付けをすること、線分投票範囲を再設定すること、線分ペアリングに再スコア付けをすること、および、車線境界追跡器を切り替えることを含み、検出ステップ毎に、車線境界検出を改善するために付加的な空間支援を提供する。高い理解レベルでは、過去の車両走行軌跡は、遠方距離における自車線の曲率情報を提供し、この曲率情報は、EKFに基づく方式において、側方車線境界と、空いている道路空間境界と、過去の車両走行軌跡とを融合させることにより、自車両の仮想走行レーンを生成させるために使用される。
自車走行レーンの情報は、広範囲の次世代運転者支援システム(ADAS)にとって極めて重大である。たとえば、車線維持支援(LKA)システムは、車道の内側で車両走行を維持するために自車走行レーンの情報を必要とする。アダプティブ・クルーズ・コントロール(ACC)システムは、安全距離を維持するように先行車両/対象物を決定するために、自車走行レーンの情報を必要とする。
現在のところ、自車走行レーンは、多くの場合に、ペイントされたレーンマークを検出することにより推定される。ある程度の数の従来手法は、全く視覚センサのみの使用に重点を置いていたが、その他の従来手法は、時に視覚と組み合わせてLIDARセンサを利用していた。LIDARセンサは、道路フェンスおよび縁石のような物理的な道路境界を検出するのを補助するため、非都会地域で役に立つが、返されるレーザーデータの強度の変化だけがペイントされたレーンマークを表し、その上、LIDARビームの個数が非常に限定されている。このようなシステムは、ある種の状況では非常に巧く機能する可能性があるが、視覚は大量の情報を供給できるので、広範囲の状況で巧く機能するように視覚が利用される可能性がある。
ペイントされたレーンマークとは別に、自車走行レーンの推定は、空いている道路空間または物理的な道路境界を検出することによっても行われる可能性がある。道路検出結果は、自車両の前方に安全な車道を与える可能性があるが、交通法規または通常の走行パターンが考慮されていない。その結果、推定された車道は、グリッドマップ/道路境界が動的な障害物を含んでいるので、自動車より標準的なモバイルロボットのためより一層適している。モバイルロボットは、空間が空いている限り自由に移動することができるが、自動車は、標識のない道路においても運転ルールおよび人々の予想に従う初期設定区域内を走行することが必要である。現在のところ、このような情報は、車道(たとえば、各走行レーンのセンターライン)を表現し、かつ、縁石、交通標識などのような付加情報を含んでいる環境の地図によって通常は与えられる。このような地図の生成は、道路ネットワーク全体を走行することと、専用かつ高価なセンサを用いて自車位置および道路データを記録することと、膨大な手動による後処理の努力とを一般に必要とする。大量の詳細情報および精度が達成される可能性があるが、プローブカーの高価格と手動による処理の低効率とは、現在のADASシステムからもたらされる恩恵を維持するこのような地図データの生成または更新を困難にする。
本実施の形態では、蓄積された車両走行軌跡は、交通シーンへの車線レベルの手掛かりを提供し、交通対象物間の関係/相互作用に関する推論を可能にすることがあり得るので、蓄積された車両走行軌跡に基づいて自車走行レーンを頑健に推定する手法が提示される。
<第1の実施の形態>
<システム構成>
図1に示すように、本発明の第1の実施の形態に係る運転支援制御装置10は、GPS衛星からの電波を受信するGPS受信部12と、自車両の前方を撮像して、画像を生成する撮像装置14と、GPS受信部12によって受信されたGPS衛星からの受信信号、及び撮像装置14によって撮像された画像に基づいて、自車両の仮想的な走行レーンを生成して、運転支援部18に出力するコンピュータ16と、を備えている。
運転支援部18は、生成された自車両の仮想的な走行レーンに基づいて、例えば、自車両の車線維持制御を行う。
GPS受信部12は、各時刻について、複数のGPS衛星からの電波を受信して、受信した全てのGPS衛星からの受信信号を、コンピュータ16へ出力する。
撮像装置14は、各時刻について、自車両の前方を繰り返し撮像して、画像を繰り返し生成し、コンピュータ16へ出力する。なお、撮像装置14は、ステレオ画像を生成するものであってもよい。
コンピュータ16を機能ブロックで表すと、上記図1に示すように、GPS受信部12から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得して、各時刻における自車両の絶対位置を算出する位置検出部20と、位置検出部20によって算出された自車両の絶対位置の時系列データを、車両走行軌跡として生成する車両走行軌跡生成部22と、車両走行軌跡生成部22によって過去に生成された車両走行軌跡を記憶する軌跡データベース24と、撮像装置14によって生成された画像から、自車両の走行レーンの車線境界を検出する車線境界検出部26と、車線境界検出部26によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び軌跡データベース24に記憶されている車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部28とを備えている。
位置検出部20は、GPS受信部12から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得し、取得したGPS情報に基づいて、自車両の絶対位置を算出する。本実施の形態では、自車両の絶対位置は、GPS衛星の情報とINS(Inertial Navigation System)センサ(図示省略)によって得られた情報とを用いて、特許文献3(特開2013−130480号公報参照)に記載の測位システムと同様の手法により算出される。特許文献3に記載の測位システムの手法では、GPSおよびINS(Inertial Navigation System)センサを使用するので、自車両の絶対位置は、誤差を有している。概して、絶対位置誤差は、1mから3mに及ぶ。INSセンサとしては、例えば、加速度センサ、地磁気センサ、ジャイロセンサ等を用いればよい。
車両走行軌跡生成部22は、特許文献3に記載の測位システムと同様の手法により、位置検出部20によって算出された自車両の絶対位置の時系列データを収集し、車両走行軌跡を生成し、軌跡データベース24に格納する。
車線境界検出部26は、撮像装置14によって生成された画像から、自車走行レーンの車線境界を検出する。
ここで、車線境界検出部26により車線境界を検出する原理について説明する。
道路車線境界は、典型的に、安全かつ合法的な走行領域を画定するペイントされたレーンマークまたはその他の一貫した強度/テクスチャ変化で指示される。後述する図4(a)に示されるように、左境界は、一貫した高−低強度エッジによって指示され、右境界は、低−高−低強度エッジのペアである破線レーンマークによってマークを付けられる。これらの境界を見つけることは、これらのタイプを突き止めることと共に、多くのADASシステムにとって極めて重大である。
概して、車線境界検出処理は、4つのステップ:1)エッジ点抽出、2)特徴線分投票、3)特徴線分グルーピング、4)車線境界推定に分類される。本実施の形態では、撮像された原画像は、最初に、逆透視マッピング(IPM)によって修正され、続いて、車線境界は、図2(a)に示すように、4つの水平セクションS,...,Sに分割されている、修正された画像内で検出される。通常、テーラー展開を使用して近似されたクロソイドモデルは、側方車線境界を表現するために使用される。その結果、検出される車線境界位置は、以下の式によって表される。
ただし、xk,t(z)は、距離zおよび時点tでの車線境界の横位置である。xk,t(z)は、自車両に対する車線センターラインの横位置オフセットx0,tと、車線に対する自車両の走行のヨー角θと、曲率c0,tと、曲率の変動c1,tとによって与えられる。これらのパラメータは、推定される状態ベクトルS、すなわち、S=(x0,t,θ,c0,t,c1,t)を形成する。
図2(b)は、車線境界検出指標を示しており、DおよびDは、それぞれ、左および右の境界検出を表す。図2(b)の例では、S0〜S2が、画像内での「境界検出」を意味しており、S3は、「境界非検出」を意味する。S left,...,S leftおよびS right,...,S rightは、それぞれ、左および右の水平セクションである。TおよびTは、それぞれ、左および右の境界のタイプ(一貫したエッジ境界、実線状レーンマーク境界、破線状レーンマーク境界)を表す。図2(b)の例では、Tは、一貫したエッジ境界を表し、Tは、破線状レーンマーク境界を表している。
次に、エッジ点抽出のステップについて説明する。
入力画像が与えられると、最初に、以下の(2)式で計算されるエッジ強度Sep(u,v)によって、撮像された原画像内で各水平走査線と共にエッジ点が抽出される。
ただし、Sep(u,v)は、エッジ点としての点(u,v)の強度であり、低−高強度エッジ点では、Sep>0であり、高−低強度エッジ点では、Sep<0である。I(・)は、強度であり、Fは、微分フィルタのサイズである。絶対値が閾値より大きいエッジ強度を持つ点は、図3(a)に示されるように保存されることになる。
次に、特徴線分投票のステップについて説明する。
保存されたエッジ点は、修正された画像の座標系に投影される。次に、セクションSおよびS内のエッジ点は、ハフ変換投票方式に基づいて、低−高強度線分および高−低強度線分にそれぞれグルーピングされる。セクション毎に、図3(a)の実施例に示されるように、セクション最下行の中間点にある原点O(u,v)を用いてパラメータ投票空間(r,α)が定義される。パラメータrは、線とOとの間の距離を表現し、αは、Oからこの最近接点までのベクトルの角度である。続いて、座標(u,v)をもつセクション内の保存されたエッジ点毎に、このエッジ点を通る線は、
r(α)=(u−u)cosα+(v−v)sinα (3)
となるペア(r,α)である。ただし、αは、対応するrを計算するために範囲[−αmax,αmax]に広がる。ペア(r,α)は、結果rが範囲[−rmax,rmax]に属する場合に投票するために保存されることになる。αmaxおよびrmaxは、投票空間のサイズを定義するために正の定数である。投票された値の極大をもつペアは、図3(b)に示されるように、セクション内の線分を指示する。その上、各線分の平均エッジ強度が計算される。道路に沿った強い影は、多くの場合に、線分を発生させ、この線分が車線境界グルーピングに影響を与えることになることに注意を要する。影の影響を除去するために、線分は、近傍点の平均強度が閾値を下回る場合に放棄されることになる。
次に、特徴線分をグルーピング(ペアリング)するステップについて説明する。
取得された線分に基づいて、以下の2通りの方法で線分ペアを見つけるための判定処理が行われる。
(1)セクションSとSとの間で、一貫したエッジ境界を見つけるため、同じタイプの線分のペアが検索される。ペア候補毎に、各線分の平均エッジ強度に関する条件と、線分間の方向αの差に関する条件と、セクションS内の線分の上方端点とセクションS内の線分の下方端点との間の代数的距離に関する条件とを含む条件群について、条件を満たすか否かが判定される。条件群の全部が満たされた場合、2個の線分は、図3(c)に示されるように、ペア化され、一貫したエッジ境界としてラベルを付けられることになる。
(2)同じセクションSまたはSにおいて、左側の低−高強度線分と右側の高−低強度線分とのペアが検索される。ペア候補毎に、各線分の平均エッジ強度に関する条件と、方向α差に関する条件と、線分間の代数的距離に関する条件と、これらの2個の線分の間にある点の平均強度に関する条件とを含む条件群について、条件を満たすか否かが判定される。条件群の全部が満たされた場合、内側の線分は、図3(d)に示されるように、レーンマーク境界としてラベルを付けられることになる。
これらの条件群の両方を満たす線分に対し、この線分は、両方のラベルをもつことになる。境界が新たに見つけられた境界である場合、レーンマーク境界のラベルは、より高い優先順位を有することになる。そうではない場合、追跡された境界と一致するラベルが使用されることになる。
次に、車線境界推定のステップについて説明する。
自車両の走行レーンの左右に存在する車線境界が、2つのEKFフィルタを独立に使用することにより推定され、追跡される。本実施の形態では、ベクトル
がSの代わりに使用される。
また、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分が、左の車線境界のEKFフィルタの観測値として使用される。また、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分が、右の車線境界のEKFフィルタの観測値として使用される。
以上説明したように、車線境界検出部26は、撮像装置14によって生成された画像に基づいて、エッジ点抽出、特徴線分投票、特徴線分グルーピング、及び車線境界推定の各ステップを実行して、自車両の走行レーンの左右の各々の車線境界を検出する。
次に、自車走行レーン推定部28によって仮想的な自車走行レーンを推定する原理について説明する。
道路状況における近隣の障害物を、自車走行レーンのような道路構造体自体と共に理解することは、市街環境におけるADAS適用の成功の鍵である。これは、特に、膨大な混乱が生じている動的な市街地シーン、または、道路構造体を指示するレーンマークが存在しない、といった場面で、非常に難しい問題である。従来のシステムは、車線境界検出によって自車走行レーンを決定する。しかし、図4(a)に示されるように、車線境界検出は、前述の難問のために安定性を欠くこと、または、さらに不正確であることがあり得る。その上、市街地場面では、車載カメラで殆ど見ることができないので遠方範囲車線境界を検出することは、困難である。
ここで、図4に、車線境界と過去の車両走行軌跡とを融合させることによる仮想的な自車走行レーンを生成した結果を示す。図4(a)では、比較例として、レーンマークの検出結果による自車走行レーンの推定結果を示す。図4(b)では、比較例として、過去の走行軌跡だけを用いて自車走行レーンを推定した結果を示す。図4(c)、(d)では、融合されるデータの観測結果を示す。各種の線が、車両走行軌跡、左右の境界観測、過去の軌跡および左右の車線境界がそれぞれ当てはめられたスプラインを表している。図4(e)では、本実施の形態の手法による自車走行レーンの推定結果を表し、図4(f)が、検出された道路境界によって生成された仮想的なレーンマークを表している。
検出された車線境界の内側の区域が自車走行レーンであると仮定して、車線境界検出結果をそのまま使用する従来型のADASシステムと違って、本実施の形態では、自車両走行に対する仮想的な走行レーンを推定し、生成する。ここで、仮想的な自車走行レーンの長距離車線モデルのパラメータを推定し、追跡するために、車両走行軌跡は使用される。前述したように、位置測位誤差に起因して、車両走行軌跡から直接的に推定された自車走行レーンは、通常は、図4(b)に示されているように、横位置およびヨー角の偏差を含んでいる。そこで、キュービックスプラインに基づく長距離車線モデルによってモデル化されたEKFに基づく追跡プロセスによって、検出された車線境界を車両走行軌跡と融合させて、仮想的な自車走行レーンを推定し、生成する。仮想的な自車走行レーンを推定する際の状態遷移を、図5に示す。レーンマークまたは一貫したエッジ境界が検出されない場合、仮想的な自車走行レーンは、車両走行軌跡からそのまま導出されることになる。そうではない場合、検出されたレーンマーク/道路境界は、図4(c)〜(d)に示されるように、車両位置測定によって生じさせられた誤差を補償するように走行軌跡を修正するために使用される。次に、仮想的な自車走行レーンが生成される。
本実施の形態で用いる、キュービックスプラインに基づく長距離車線モデルは、自車走行レーンの効果的かつ効率的な推定のため非常に重要である。概して、自車走行レーンは、車線境界検出のように、通常は、近接範囲において良い結果を取得する可能性があるクロソイドスプラインモデルに基づいてモデル化される。しかし、このモデル化は、車線曲率が均等に分布していない長距離範囲では失敗する可能性がある。図6に示されるように、近接範囲内の車線は、殆ど直線であるが、遠方範囲では、急な曲線が存在する。遠方範囲において曲率を当てはめるために、クロソイドスプラインは、図6(c)における観測のスプラインに示されるように、同様に比較的大きい曲率を有するものであり、典型的に、近接範囲において不正確な角度をもたらす。現実の角度は、車両の走行のヨー誤差を訂正するために、検出された車線境界から導出されるので、車両走行軌跡は、図6(c)のスプラインに示されるように、ヨー角が検出された車線境界に適合することを確実にするためにさらに変換され、遠方範囲において過去の軌跡の大きいオフセット誤差を生成することになる。この例では、遠方範囲における曲率は、比較的正確であるが、図6(a)に示されるように、位置に誤りがある。
キュービックスプラインの制御点は、実際には曲線上にあり、キュービックスプラインは、局所制御を有しているので、すなわち、1個の制御点だけを修正することは、この制御点の近くにある曲線の一部分に影響を与える。そこで、上記問題を取り扱うために、本実施の形態では、仮想的な自車走行レーンの生成のためにキュービックスプラインを採用する。これらの特性は、遠方範囲における急な曲線の当てはめが近接範囲における直線的な車線の観測に影響を与えないことを確実にする。
図6に、車線境界および過去の車両走行軌跡を融合させることによる仮想的な自車走行レーンの生成結果を示す。図6(a)に、クロソイドスプラインモデルを用いた自車走行レーンの推定結果を示す。図6(b)に、キュービックスプラインモデルを用いた自車走行レーンの推定結果を示す。図6(c)に、クロソイドモデルを用いた観測結果を示す。図6(d)に、キュービックスプラインモデルを用いた観測結果を示す。
位置の系列(P,P,...,P)を仮定すると、Catmull−Romスプラインは、点PからPn−1までを補間(通過)することが可能である。さらに、Pでの接線ベクトルは、Pi−1とPi+1とを接続する線に平行である。1個の線分に対するCatmull−Romキュービックスプラインの式は、以下の式である。
ただし、Pは、Catmull−Romスプラインが通過することを必要とする制御点であり、t∈[0,1]である。
本実施の形態では、6個の制御点をもつCatmull−Romスプラインが、自車走行レーンを記述するために使用される。第1の(最近接)制御点は、修正された画像内の目に見える道路の下端にあるように設定される。最後の(最遠方)制御点として、修正された画像内の過去の車両走行軌跡の端点が設定される。残りの制御点は、両端の制御点の間に等間隔で分布している。制御点の横位置は、ベクトル
を用いてEKFに基づく追跡プロセスによって計算される。図6(d)に示されるように、近接範囲内の車線の直線部分は、遠方範囲内の急な曲線の位置決め誤差をもたらさないので、仮想的な自車走行レーンは、図6(b)に示されるように、正しく生成される。
以上説明したように、自車走行レーン推定部28は、車線境界検出部26によって検出された車線境界と、位置検出部20によって検出された自車両の絶対位置に対応する、軌跡データベース24に記憶されている車両走行軌跡とに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを表すデータを生成し、運転支援部18に出力する。
<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
運転支援制御装置10を搭載した車両が走行しているときであって、撮像装置14によって自車両の前方を撮像し、画像を逐次生成すると共に、GPS受信部12によって、GPS衛星からの信号を逐次受信しているときに、運転支援制御装置10は、図7に示す自車走行レーン推定処理ルーチンを実行する。
ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。
そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。
次のステップ106では、前回検出された車線境界と、上記ステップ100で取得した画像とに基づいて、レーンマークなどの車線境界を検出して追跡する。
ステップ108では、上記ステップ104で検出された自車両の絶対位置に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、かつ、自車両の進行方向と同じ方向の車両走行軌跡を取得する。このとき、複数の車両走行軌跡が得られた場合には、複数の車両走行軌跡を平均した車両走行軌跡を取得する。
そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ108で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、仮想的な自車走行レーンを推定して追跡し、運転支援部18に出力して、上記ステップ100へ戻る。
上記の自車走行レーン推定処理ルーチンが繰り返し実行されることにより、逐次生成された仮想的な自車走行レーンが、運転支援部18へ出力され、運転支援部18により、仮想的な自車走行レーンに基づく運転支援が行われる。
また、運転支援制御装置10は、検出された自車両の絶対位置の時系列データに基づいて、車両走行軌跡を生成し、軌跡データベース24に格納する。
上記ステップ106は、図8に示す車線境界検出処理ルーチンによって実現される。
ステップ120では、上記ステップ100で取得した画像から、各水平走査線上において、上記(2)式で計算されるエッジ強度に従って、低−高強度エッジ点又は高−低強度エッジ点を抽出する。
そして、ステップ122において、上記ステップ100で取得した画像を、逆透視マッピング(IPM)によって修正し、上記ステップ120で抽出されたエッジ点を、修正された画像の座標系に投影する。次に、修正された画像のセクションSおよびS内のエッジ点は、ハフ変換投票方式に基づいて、低−高強度線分および高−低強度線分にそれぞれグルーピングされる。ステップ124において、各線分の平均エッジ強度が計算され、平均エッジ強度が閾値を下回る線分が放棄され、最終的に、修正された画像のセクションSおよびS内で、低−高強度線分および高−低強度線分が取得される。
次のステップ126では、上記ステップ124で取得された、各セクション内の低−高強度線分および高−低強度線分に基づいて、一貫したエッジ境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、一貫したエッジ境界のラベルを付ける。また、レーンマーク境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、レーンマーク境界のラベルを付ける。
そして、ステップ128において、左右の車線境界の各々について、上記ステップ126で得られた、一貫したエッジ境界のラベルが付された線分、又はレーンマーク境界のラベルが付された線分と、前回のステップ128で推定された車線境界の各点のレーンパラメータとに基づいて、EKFフィルタを用いて、車線境界の各点のレーンパラメータを推定し、推定したレーンパラメータとクロソイドモデルとに基づいて、車線境界を推定して追跡し、車線境界検出処理ルーチンを終了する。なお、上記ステップ126で、何れの線分にも、一貫したエッジ境界又はレーンマーク境界のラベルが付されなかった場合には、車線境界が検出されなかったと判断される。
上記ステップ110は、図9に示すレーン推定処理ルーチンによって実現される。
ステップ130では、上記ステップ106の処理により車線境界が検出されたか否かを判定する。車線境界が検出されなかった場合には、後述するステップ134へ移行する。一方、車線境界が検出された場合には、ステップ132において、上記ステップ108で取得した車両走行軌跡の位置及びヨー角を、上記ステップ106の処理により検出された車線境界に基づいて修正する。
ステップ134では、上記ステップ108で取得した車両走行軌跡、又は上記ステップ132で修正された車両走行軌跡と、上記ステップ106の処理により検出された車線境界と、前回のステップ134で推定された自車走行レーンのレーンパラメータとに基づいて、EKFフィルタを用いて、自車走行レーンのレーンパラメータを推定して追跡し、推定したレーンパラメータとキュービックスプラインモデルとに基づいて、仮想的な自車走行レーンを表すデータを生成し、運転支援部18に出力し、レーン推定処理ルーチンを終了する。
以上説明したように、本発明の第1の実施の形態に係る運転支援制御装置によれば、車両走行軌跡と、検出された車線境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、自車両が走行している仮想的な自車走行レーンを生成することにより、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる。
また、車両走行軌跡を用いることで、画像情報のみでは推定できない遠方の車線の曲率等を求めて、自車走行レーンを推定することができる。
<第2の実施の形態>
<システム構成>
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第2の実施の形態では、車両走行軌跡を用いて、車線境界を予測し、予測結果を更に用いて、車線境界を検出している点が、第1の実施の形態と異なっている。
第1の実施の形態で説明した、車線境界検出部26による車線境界検出方法は、複雑なパターン、曲率、および雑音のような多くの難題を取り扱う可能性がある。しかし、低品質の車線の特徴に起因し、視覚的な車線境界の証拠に識別力がない状況において、車線の誤検出が起こることがある。実際のところ、このような誤検出は、一般的な見え方に基づく車線検出の殆どに起こるものである。本実施の形態では、車両走行軌跡が、シーンの構造を明らかにし、状況への手掛かりを提供することができるので、雑音に対して目立たないターゲットを識別するように付加的なサポートを提供するために、車両走行軌跡を採用する。
ここで、過去の車両走行軌跡は、車線境界を検出するための前提または予測を提供するために使用され、車線境界検出部26の各ステップにおける車線境界検出性能を改善する。本実施の形態における車線境界予測部224は、車線境界検出部26の各ステップのいずれにおいてもアドオンとして使用される可能性があり、検出性能が改善される。
図10に示すように、第2の実施の形態に係る運転支援制御装置210のコンピュータ216は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、位置検出部20によって検出された自車両の絶対位置、及び軌跡データベース24に記憶されている車両走行軌跡に基づいて、車線境界を予測する車線境界予測部224と、撮像装置14によって生成された画像及び車線境界予測部224によって予測された車線境界に基づいて、自車両の走行レーンの車線境界を検出する車線境界検出部226と、自車走行レーン推定部28とを備えている。なお、車線境界検出部226が、車線境界推定手段の一例である。
車線境界予測部224は、車線境界の予測として、車線境界検出部226によるエッジ点の抽出で用いられるスコアに重み付けするための、スコアを算出する。
ここで、車線境界予測部224によってスコアを算出する原理について説明する。
位置は、対象物と現実世界との間のコンテキスト関係の5つの最も重要なクラスのうちの1つである。対象物がシーンにありそうであると仮定すると、対象物は、多くの場合に、何らかの位置で見つけられ、その他の位置では見つけられない。車線検出の例では、過去の車両走行軌跡は、車両が殆どの時間で走行車線の中央で走行し、その結果、車線境界の見込み位置を明らかにするので、このような付加的な空間情報を提供する可能性がある。
各車両走行軌跡は、左の車線境界および右の車線境界にそれぞれ対応して、左の車線境界から、車線幅の半分だけ離れている位置の集合と、右の車線境界から、車線幅の半分だけ離れている位置の集合とを意味する。日本の道路建設法規によれば、車線幅は、3メートルと3.5メートルとの間である。その結果、走行車線は、平均幅μが3.25メートルであり、標準偏差σが2.0メートルである、と仮定する。空間スコアSp(u,v)は、境界位置から車両走行軌跡までの距離の分散が考慮され、以下の(4)式で計算される。
ただし、(u,v)は、修正された画像座標内の点である。Nは、現在のシーン内に存在する車両走行軌跡の個数であり、uは、横ラインv内のk番目の軌跡の水平位置である。ここで、過去の車両走行軌跡の統計値を活かすために、各車両走行軌跡のスコアの最大値ではなく、合計を使用する。図11(b)において、空間スコアが、階調部分として視覚化されている。
混乱、雑音および照明のようなある程度の数の要因が原因で、局所的な見え方が不十分であるとき、境界特徴抽出を改善するため、このような空間コンテキスト情報は、エッジ点に重み付けをするために使用されることになる。すなわち、車線境界検出部226によるエッジ点の抽出で用いられるエッジ強度は、SepとSとの積ということになる。
以上説明したように、車線境界予測部224は、自車両の絶対位置に対応して取得した車両走行軌跡に基づいて、各座標(u,v)における空間スコアSp(u,v)を算出する。
また、車線境界予測部224は、自車両の絶対位置に対応して取得した車両走行軌跡の局所的なヨー角αtraを算出する。
車線境界検出部226は、上記(1)式に従って、各座標のエッジ強度Sep(u,v)を算出し、車線境界予測部224によって算出された空間スコアS(u,v)との積を、各座標のエッジ強度とし、絶対値が閾値より大きいエッジ強度を持つ点を、エッジ点として抽出する。
次に、車線境界検出部226による特徴線分投票のステップについて説明する。
上記第1の実施の形態では、投票プロセス中に、αの投票範囲は、車線境界の線分が車両の走行方向と殆ど平行であると仮定して、[−αmax,αmax]として設定される。多くの車線検出システムは、この仮定が無関係の殆ど水平線および雑音の影響を除去し、計算負荷を低減する可能性があるので、このような仮定を採用する。しかし、この仮定は、曲線状の道路で、または、自車両の運転中に成り立たないことがある。ところが、過去の車両走行軌跡は、道路曲率について正確であり、かつ、局所的な情報を提供する可能性があり、複数の車両走行軌跡のうちの平均軌跡は、車両の運転の影響を低減する可能性がある。
そこで、車線境界検出部226では、車線境界予測部224によって算出された車両走行軌跡の局所的なヨー角αtraを用いて、投票範囲を[−αmax+αtra,αmax+αtra]として設定する(図11(c)参照)。
次に、車線境界検出部226による特徴線分のグルーピングのステップについて説明する。
投票範囲の再設定の他に、過去の車両走行軌跡は、局所的な軌跡への平行度が高い候補ほどより大きい重みを与える線分ペアリングにおいてさらに使用される。より形式的には、線分の方向がそれぞれにαl1およびαl2であると仮定すると、方向に関する条件の判定は、以下の(5)式で表わされるスコアを用いて行われる。
ただし、第1項は、元のスコアであり、第2項は、再重み付けスコアである。λおよびλorは、重み付け定数である。
車線境界検出部226は、セクションSとSとの間で、一貫したエッジ境界を見つけるための条件群を満たすか否かにより、2個の線分がペア化され、一貫したエッジ境界としてラベルを付けられることになる。このとき、方向αの差に関する条件では、上記の式のスコアを用いた条件となる。
また、車線境界検出部226は、同じセクションSまたはSにおいて、レーンマークを見つけるための条件群を満たすか否かにより、ペア候補の内側の線分が、レーンマーク境界としてラベルを付けられることになる。このとき、方向αの差に関する条件では、上記(5)式のスコアを用いた条件となる。
また、車線境界検出部226は、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された左の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの左に存在する車線境界を推定して、追跡する。また、車線境界検出部226は、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された右の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの右に存在する車線境界を推定して、追跡する。
<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
運転支援制御装置210は、図12に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。
そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。
ステップ108では、上記ステップ104で検出された自車両の絶対位置に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、かつ、自車両の進行方向と同じ方向の車両走行軌跡を取得する。複数の車両走行軌跡が得られた場合には、複数の車両走行軌跡を平均した車両走行軌跡を取得する。
ステップ250では、上記ステップ108で取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。
ステップ252では、上記ステップ108で取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。
そして、ステップ106では、上記ステップ250で算出した空間スコア、上記ステップ252で算出した局所的な車両走行軌跡のヨー角、及び前回検出された車線境界を用いて、上記ステップ100で取得した画像から、レーンマークなどの車線境界を検出して追跡する。
そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ108で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、仮想的な自車走行レーンを推定して追跡し、運転支援部18に出力して、上記ステップ100へ戻る。
上記ステップ106は、上記図8に示す車線境界検出処理ルーチンと同様の処理ルーチンによって実現される。
ただし、ステップ120では、上記ステップ100で取得した画像から、各水平走査線上において、上記(2)式で算出されたスコアと、上記ステップ250で算出した空間スコアとに基づいて、低−高強度エッジ点又は高−低強度エッジ点を抽出する。
また、ステップ122において、上記ステップ252で算出された局所的な車両走行軌跡のヨー角を用いて設定された投票範囲に従って、線分投票が行われる。
ステップ126では、方向αの差に関する条件として、上記(5)式のスコアを用いた条件を含む条件群であって、一貫したエッジ境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、一貫したエッジ境界のラベルを付ける。また、方向αの差に関する条件として、上記(5)式のスコアを用いた条件を含む条件群であって、レーンマーク境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、レーンマーク境界のラベルを付ける。
なお、第2の実施の形態に係る運転支援制御装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
このように、車両走行軌跡を用いることで、レーンマークなどの境界線が劣化もしくは存在しない道路においても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。
<第3の実施の形態>
<システム構成>
次に、第3の実施の形態について説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第3の実施の形態では、自車両の経路を用いて、関連する車両走行軌跡を選択している点が、第1の実施の形態と異なっている。
前述のとおり、軌跡データベース24に記憶された車両走行軌跡は、車両が複数回に亘って道路網内を走行しているときに収集されたものである。自車走行レーン推定のために用いられる車両走行軌跡は、自車両の位置に従って関連付けられた複数の車両走行軌跡である。自車両が非分岐レーン内を走行しているとき、関連付けられた複数の車両走行軌跡の形状は、基本的に同じであり、車両走行軌跡の平均は、自車走行レーンを推定すると共に、車線境界検出性能を改善するため使用されることになる。しかし、自車両が交差点に接近しているとき、関連付けられた複数の車両走行軌跡は、これらの異なった走行方向、すなわち、左折、右折または直進に起因して全く異なることがある。複数の車両走行軌跡の例は、上記図11(a)に示されている。
図13に示すように、第3の実施の形態に係る運転支援制御装置310のコンピュータ316は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、車線境界予測部224と、位置検出部20によって検出された自車両の絶対位置、及び自車両の経路に基づいて、軌跡データベース24に記憶されている車両走行軌跡から、自車両の目的地までの走行経路に関連する車両走行軌跡を選択する関連軌跡選択部324と、車線境界検出部226と、車線境界検出部226によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び関連軌跡選択部324によって選択された車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部328とを備えている。
関連軌跡選択部324は、現在の自車両の目的地までの走行経路に関連する車両走行軌跡を選択する。自車両の走行経路は、グローバルGPS位置をもつ中継点の系列を有しているカーナビゲーションシステム(図示省略)から取得される。走行経路と関連付けられた車両走行軌跡との間の全体的な距離が計算され、所定の閾値未満の距離をもつ車両走行軌跡、すなわち、走行経路と同じ走行方向を有している車両走行軌跡が選択されることになる。選択された車両走行軌跡の平均は、自車走行レーンを推定すると共に、車線境界検出性能を改善するため使用されることになる。統計的に、平均化された車両走行軌跡は、低価格のGPSセンサ/INSセンサが使用されるにもかかわらず、道路の正確な空間情報を提供する可能性があることに注意すべきである。
自車走行レーン推定部328は、車線境界検出部226によって検出された車線境界と、関連軌跡選択部324によって選択された車両走行軌跡の平均と、前回推定された各制御点におけるレーンパラメータとに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを生成して追跡し、運転支援部18に出力する。
<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
運転支援制御装置310は、図14に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態及び第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。
そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。
ステップ300では、ナビゲーションシステムから、自車両の目的地までの走行経路を取得する。次のステップ302において、上記ステップ104で検出された自車両の絶対位置及び上記ステップ300で取得した自車両の走行経路に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、自車両の進行方向と同じ方向の車両走行軌跡であり、自車両の走行経路に関連する車両走行軌跡を取得する。複数の車両走行軌跡が得られた場合には、複数の車両走行軌跡を平均した車両走行軌跡を取得する。
ステップ250では、上記ステップ302で取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。
ステップ252では、上記ステップ302で取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。
そして、ステップ106では、上記ステップ250で算出した空間スコア、及び上記ステップ252で算出した局所的な車両走行軌跡のヨー角を用いて、上記ステップ100で取得した画像から、レーンマークなどの車線境界を検出する。
そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ302で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、仮想的な自車走行レーンを推定して追跡し、運転支援部18に出力して、上記ステップ100へ戻る。
なお、第3の実施の形態に係る運転支援制御装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。
このように、自車両の経路に関連する車両走行軌跡を用いることで、複数の走行方向があるシーンにおいても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。
なお、上記の実施の形態では、車線境界予測部を設けた場合を例に説明したが、これに限定されるものではなく、上記の第1の実施の形態と同様に、車線境界予測部を用いて、車線境界を検出するようにしてもよい。
<第4の実施の形態>
<システム構成>
次に、第4の実施の形態について説明する。なお、第1の実施の形態〜第3の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第4の実施の形態では、自車両の走行方向毎に、関連する車両走行軌跡を取得し、自車両の走行方向毎に、車線境界検出及び自車走行レーン推定における追跡を行っている点が、第1の実施の形態と異なっている。
走行経路が、カーナビゲーションシステムから取得されない場合がある。たとえば、運転者は、通常、慣れている道路を進行しているとき、カーナビゲーションシステムに行き先を設定しない。このとき、自車両の走行に関連付けられる複数の車両走行軌跡は、自車両が交差点に接近しているとき、異なった形状を有するものであり、複数の車両走行軌跡の1つずつが、現在の自車両の走行のため考えられる。
図15に示すように、第4の実施の形態に係る運転支援制御装置410のコンピュータ416は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、位置検出部20によって検出された自車両の絶対位置に基づいて、軌跡データベース24に記憶されている車両走行軌跡から、複数の走行方向毎に、自車両の走行に関連する車両走行軌跡を取得する複数軌跡取得部422と、複数の走行方向毎に、複数軌跡取得部422によって取得された自車両の走行に関連する車両走行軌跡に基づいて、車線境界を予測する車線境界予測部424と、複数の走行方向毎に、撮像装置14によって生成された画像及び車線境界予測部224によって予測された車線境界に基づいて、自車両の走行レーンの車線境界を検出する車線境界検出部426と、複数の走行方向毎に、車線境界検出部426によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び複数軌跡取得部422によって取得された車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部428とを備えている。なお、複数軌跡取得部422が、複数方向軌跡取得手段の一例である。
複数軌跡取得部422では、位置検出部20によって検出された自車両の絶対位置に基づいて、現在の自車両の走行に関連する車両走行軌跡を、軌跡データベース24から取得し、複数の走行方向毎に、たとえば、左折、直進、右折のそれぞれに対して、取得された車両走行軌跡をグルーピングし、平均化する。
車線境界予測部424は、複数の走行方向毎に、当該走行方向について取得した車両走行軌跡に基づいて、車線境界の予測として、車線境界検出部226によるエッジ点の抽出で用いられるスコアに重み付けするための、スコアを算出する。
また、車線境界予測部424は、複数の走行方向毎に、当該走行方向について取得した車両走行軌跡の局所的なヨー角αtraを算出する。
車線境界検出部426は、複数の走行方向毎に、上記(1)式に従って、各座標のエッジ強度Sep(u,v)を算出し、車線境界予測部424によって当該走行方向に対して算出された空間スコアS(u,v)との積を、各座標のエッジ強度とし、絶対値が閾値より大きいエッジ強度を持つ点を、エッジ点として抽出する。
車線境界検出部426では、複数の走行方向毎に、車線境界予測部424によって当該走行方向に対して算出された車両走行軌跡の局所的なヨー角αtraを用いて、投票範囲を[−αmax+αtra,αmax+αtra]として設定する。
車線境界検出部426は、複数の走行方向毎に、セクションSとSとの間で、一貫したエッジ境界を見つけるための条件群を満たすか否かにより、2個の線分がペア化され、一貫したエッジ境界としてラベルを付けられることになる。
また、車線境界検出部426は、複数の走行方向毎に、同じセクションSまたはSにおいて、レーンマークを見つけるための条件群を満たすか否かにより、ペア候補の内側の線分が、レーンマーク境界としてラベルを付けられることになる。
また、車線境界検出部426は、複数の走行方向毎に、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された左の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの左に存在する車線境界を推定して、追跡する。また、車線境界検出部426は、複数の走行方向毎に、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された右の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの右に存在する車線境界を推定して、追跡する。
このように、車線境界検出部426では、複数の走行方向毎に、車線境界検出のための追跡を行う。結果の1つずつは、現在の走行のために検出された結果の可能性又は信頼度を指示するために検出スコアを保持する。自車両が交差点に入ると直ぐに、現在の走行に適合しない検出結果、すなわち、異なった走行方向についての検出結果は、即座に放棄されることになり、同じ方向での検出結果だけが保存されることになる。
自車走行レーン推定部428は、複数の走行方向毎に、車線境界検出部426によって検出された車線境界と、複数軌跡取得部422によって取得された車両走行軌跡の平均と、前回推定された各制御点におけるレーンパラメータとに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定して追跡し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを生成し、運転支援部18に出力する。
自車走行レーン推定部428では、複数の走行方向毎に、車両走行レーン推定のための追跡を行う。結果の1つずつは、現在の走行のために推定された結果の可能性又は信頼度を指示するために検出スコアを保持する。しかし、自車両が交差点に入ると直ぐに、現在の走行に適合しない結果、すなわち、異なった方向をもつ結果は、即座に放棄されることになり、同じ方向での結果だけが保存されることになる。
<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
運転支援制御装置410は、図16に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態及び第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。
そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。
ステップ400では、上記ステップ104で検出された自車両の絶対位置に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、自車両の進行方向と同じ方向の車両走行軌跡を取得し、複数の車両走行軌跡が得られた場合には、複数の走行方向(右折、左折、直進)に、複数の車両走行軌跡をグルーピングし、複数の走行方向毎に、グルーピングされた複数の車両走行軌跡を平均した車両走行軌跡を取得する。
ステップ402では、複数の走行方向のうちの何れか1つを、処理対象の走行方向として設定する。
ステップ250では、上記ステップ400で処理対象の走行方向について取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。
ステップ252では、上記ステップ400で処理対象の走行方向について取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。
そして、ステップ106では、上記ステップ250で算出した空間スコア、上記ステップ252で算出した局所的な車両走行軌跡のヨー角、及び前回検出された車線境界を用いて、上記ステップ100で取得した画像から、処理対象の走行方向について、レーンマークなどの車線境界を検出する。このとき、処理対象の走行方向について、車線境界を追跡する追跡器から得られるスコアが、低い場合には、処理対象の走行方向について得られた車線境界の検出結果は破棄される。
そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ302で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、処理対象の走行方向について、仮想的な自車走行レーンを推定して、運転支援部18に出力する。このとき、処理対象の走行方向について、仮想的な自車走行レーンを追跡する追跡器から得られるスコアが、低い場合には、処理対象の走行方向について得られた仮想的な自車走行レーンの推定結果は破棄される。
ステップ404において、複数の走行方向の全てについて、上記ステップ402〜ステップ110の処理を実行したか否かを判定し、上記ステップ402〜ステップ110の処理を実行していない走行方向が存在する場合には、上記ステップ402へ戻り、当該走行方向を、処理対象の走行方向として設定する。また、複数の走行方向の全てについて、上記ステップ402〜ステップ110の処理を実行した場合には、上記ステップ100へ戻る。
なお、第4の実施の形態に係る運転支援制御装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。
このように、複数の走行方向毎に、関連する車両走行軌跡を用いることで、複数の走行方向があるシーンにおいても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。
なお、上記の実施の形態では、車線境界予測部を設けた場合を例に説明したが、これに限定されるものではなく、上記の第1の実施の形態と同様に、車線境界予測部を用いて、車線境界を検出するようにしてもよい。
<第5の実施の形態>
<システム構成>
次に、第5の実施の形態について説明する。なお、第1の実施の形態〜第4の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第5の実施の形態では、複数の走行車線毎に、関連する車両走行軌跡を取得し、走行車線毎に、車線境界検出及び自車走行レーン推定における追跡を行っている点が、第1の実施の形態と異なっている。
複数の車線を含む広い道路では、同じ走行方向にいくつもの車線が存在することがある。このような問題を取り扱うために、同じ方向をもつ車両走行軌跡が最初に選択され、複数の追跡器が、複数の走行車線に対処するために生成されることになる。より高いスコアをもつ自車走行レーンが運転支援部へ出力されることになる。
図17に示すように、第5の実施の形態に係る運転支援制御装置510のコンピュータ516は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、関連軌跡選択部324と、関連軌跡選択部324によって選択された、自車両の走行に関連する車両走行軌跡に基づいて、複数の走行車線毎に、自車両の走行に関連する車両走行軌跡をグルーピングして、車両走行軌跡を取得する複数車線生成部522と、複数の走行車線毎に、複数車線生成部522によって取得された車両走行軌跡に基づいて、車線境界を予測する車線境界予測部524と、複数の走行車線毎に、撮像装置14によって生成された画像及び車線境界予測部524によって予測された車線境界に基づいて、自車両の走行レーンの車線境界を検出する車線境界検出部526と、複数の走行車線毎に、車線境界検出部526によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び複数車線生成部522によって取得された車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部528とを備えている。なお、複数車線生成部522が、複数車線軌跡取得手段の一例である。
複数車線生成部522では、関連軌跡選択部324によって取得された、現在の自車両の走行に関連する車両走行軌跡に基づいて、複数の走行車線毎に、車両走行軌跡をグルーピングし、平均化する。
車線境界予測部524は、複数の走行車線毎に、当該走行車線について取得した車両走行軌跡に基づいて、車線境界の予測として、車線境界検出部526によるエッジ点の抽出で用いられるスコアに重み付けするための、スコアを算出する。
また、車線境界予測部524は、複数の走行車線毎に、当該走行車線について取得した車両走行軌跡の局所的なヨー角αtraを算出する。
車線境界検出部526は、複数の走行車線毎に、上記(1)式に従って、各座標のエッジ強度Sep(u,v)を算出し、車線境界予測部524によって当該走行車線に対して算出された空間スコアS(u,v)との積を、各座標のエッジ強度とし、絶対値が閾値より大きいエッジ強度を持つ点が、エッジ点として抽出される。
車線境界検出部526では、複数の走行車線毎に、車線境界予測部524によって当該走行車線に対して算出された車両走行軌跡の局所的なヨー角αtraを用いて、投票範囲を[−αmax+αtra,αmax+αtra]として設定する。
車線境界検出部526は、複数の走行車線毎に、セクションSとSとの間で、一貫したエッジ境界を見つけるための条件群を満たすか否かにより、2個の線分がペア化され、一貫したエッジ境界としてラベルを付けられることになる。
また、車線境界検出部526は、複数の走行車線毎に、同じセクションSまたはSにおいて、レーンマークを見つけるための条件群を満たすか否かにより、ペア候補の内側の線分が、レーンマーク境界としてラベルを付けられることになる。
車線境界検出部526は、複数の走行車線毎に、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された左の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの左に存在する車線境界を推定して、追跡する。また、車線境界検出部526は、複数の走行車線毎に、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された右の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの右に存在する車線境界を推定して、追跡する。
このように、車線境界検出部526では、複数の走行車線毎に、車線境界検出のための追跡を行う。結果の1つずつは、現在の走行のために検出された結果の可能性又は信頼度を指示するために検出スコアを保持する。
上記図11(a)に示すように、典型的な車線分割シーンでは、新しい車線境界が現れたとき、通常、追跡器が新しい車線境界へ移動するために少数のフレームを必要とし、このプロセス中の結果は、非常に安定性を欠く可能性がある。しかし、本実施の形態では、走行車線毎に、追跡器が走行車線の両側から車線境界を検出する。このことは、現実の状況と良く一致する。結果は、前の車線境界から新しい車線境界へ車線境界を移動させる代わりに、追跡器の間で切り替えられる。
自車走行レーン推定部528は、複数の走行車線毎に、車線境界検出部526によって検出された車線境界と、複数車線生成部522によって取得された車両走行軌跡の平均と、前回推定された各制御点におけるレーンパラメータとに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定して追跡し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを生成し、運転支援部18に出力する。
自車走行レーン推定部528では、複数の走行車線毎に、車両走行レーン推定のための追跡を行う。すなわち、走行車線毎に、追跡器が、仮想的な走行レーンを推定する。
<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
運転支援制御装置510は、図18に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態〜第3の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。
そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。
ステップ300では、ナビゲーションシステムから、自車両の目的地までの走行経路を取得する。次のステップ302において、上記ステップ104で検出された自車両の絶対位置及び上記ステップ300で取得した自車両の走行経路に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、自車両の進行方向と同じ方向の車両走行軌跡であり、自車両の走行経路に関連する車両走行軌跡を取得する。
ステップ500では、上記ステップ302で取得された、複数の車両走行軌跡を、複数の走行車線毎にグルーピングし、複数の走行車線毎に、グルーピングされた複数の車両走行軌跡を平均した車両走行軌跡を取得する。
ステップ502では、複数の走行車線のうちの何れか1つを、処理対象の走行車線として設定する。
ステップ250では、上記ステップ500で処理対象の走行車線について取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。
ステップ252では、上記ステップ500で処理対象の走行車線について取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。
そして、ステップ106では、上記ステップ250で算出した空間スコア、上記ステップ252で算出した局所的な車両走行軌跡のヨー角、及び前回検出された車線境界を用いて、上記ステップ100で取得した画像から、処理対象の走行車線について、レーンマークなどの車線境界を検出して追跡する。
そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ500で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、処理対象の走行車線について、仮想的な自車走行レーンを推定して追跡する。
ステップ504において、複数の走行車線の全てについて、上記ステップ502〜ステップ110の処理を実行したか否かを判定し、上記ステップ502〜ステップ110の処理を実行していない走行車線が存在する場合には、上記ステップ502へ戻り、当該走行車線を、処理対象の走行車線として設定する。また、複数の走行車線の全てについて、上記ステップ502〜ステップ110の処理を実行した場合には、上記ステップ506へ進む。
ステップ506では、上記ステップ110により複数の走行車線について推定された自車走行レーンのうち、仮想的な自車走行レーンを追跡する追跡器から得られるスコアが最も高いものを選択し、仮想的な自車走行レーンの推定結果として、運転支援部18へ出力し、上記ステップ100へ戻る。
なお、第5の実施の形態に係る運転支援制御装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。
このように、複数の走行車線毎に、関連する車両走行軌跡を用いることで、複数の走行車線があるシーンにおいても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。
次に、本発明の実施の形態で説明した手法の実験結果について説明する。車線境界検出の結果例は、図19に示されている。図19(a)〜(c)には、複雑なパターンとなる状況での車線境界検出の結果を示す。図19(d)〜(f)には、曲率がある状況での車線境界検出の結果を示す。図19(g)には、逆光がある状況での車線境界検出の結果を示す。図19(h)〜(i)には、レーンマークが消えていることに起因する雑音のある状況での車線境界検出の結果を示す。
図20(a)は、元の車線検出だけを、仮想自車線生成に使用することによる自車線推定結果を示し、図20(b)は、改善された車線境界検出だけを、仮想自車線生成に使用することによる自車線推定結果を示し、図20(c)は、過去の車両走行軌跡を用いた、本発明の実施の形態で説明した手法による自車線推定結果を示し、比較を表している。
図20(d)〜(f)、図20(g)〜(i)、図20(j)〜(l)も同様に比較を表しており、これらの実験例から、本発明の実施の形態で説明した手法は、車線境界検出だけを使用する自車線推定より遥かに正確であり、かつ、頑健性があることが分かる。
なお、上記の第5の実施の形態では、車線境界予測部を設けた場合を例に説明したが、これに限定されるものではなく、上記の第1の実施の形態と同様に、車線境界予測部を用いて、車線境界を検出するようにしてもよい。
また、上記の第1の実施の形態〜第5の実施の形態では、軌跡データベースに、自車両の車両走行軌跡が格納されている場合を例に説明したが、これに限定されるものではなく、他車両の車両走行軌跡が格納されていてもよい。また、軌跡データベースが、他の装置に設けられており、ネットワークを介して、当該他の装置の軌跡データベースにアクセスするようにしてもよい。
また、車線境界検出部が、クロソイドスプラインモデルを用いて、車線境界を検出する場合を例に説明したが、これに限定されるものではなく、他のモデルを用いて、車線境界を検出するようにしてもよい。
また、自車走行レーン推定部が、キュービックスプラインモデルを用いて、仮想的な自車走行レーンを推定する場合を例に説明したが、これに限定されるものではなく、他のモデルを用いて、仮想的な自車走行レーンを推定するようにしてもよい。
10、210、310、410、510 運転支援制御装置
12 GPS受信部
14 撮像装置
16、216、316、416、516 コンピュータ
18 運転支援部
20 位置検出部
22 車両走行軌跡生成部
24 軌跡データベース
26、226、426、526 車線境界検出部
28、328、428、528 自車走行レーン推定部
224、424、524 車線境界予測部
324 関連軌跡選択部
422 複数軌跡取得部
522 複数車線生成部

Claims (8)

  1. 自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段と、
    自車両の目的地までの走行経路に基づいて、自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡のうち、自車両の走行に関連する車両走行軌跡を選択する関連軌跡選択手段と、
    前記関連軌跡選択手段によって選択された車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段と、
    を含み、
    前記自車走行レーン推定手段は、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる、走行レーン上の各制御点の座標を含む前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する
    自車走行レーン推定装置。
  2. 自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段と、
    自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡から、複数の進行方向の各々について、前記進行方向の車両走行軌跡を取得する複数方向軌跡取得手段と、
    前記複数の進行方向の各々について、前記複数方向軌跡取得手段によって取得された前記進行方向の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段と、
    を含み、
    前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる、走行レーン上の各制御点の座標を含む前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する
    自車走行レーン推定装置。
  3. 自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段と、
    自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡から、複数の走行車線の各々について、前記走行車線の走行軌跡を生成する複数車線軌跡取得手段と、
    前記複数の走行車線の各々について、前記複数車線軌跡取得手段によって取得された前記走行車線の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段と、
    を含み、
    前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる、走行レーン上の各制御点の座標を含む前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する
    自車走行レーン推定装置。
  4. 自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡に基づいて、自車両が走行している車線の境界を推定する車線境界推定手段を更に含み、
    前記車線境界検出手段は、前記撮像手段によって生成された画像、及び前記車線境界推定手段によって推定された前記車線の境界に基づいて、前記車線の境界を検出する請求項1〜請求項3の何れか1項記載の自車走行レーン推定装置。
  5. 前記車線境界検出手段は、前記撮像手段によって生成された画像に基づいて、エッジ点を抽出し、抽出されたエッジ点に基づいて、拡張カルマンフィルタに従って、クロソイドスプラインモデルで用いられる、自車両に対する車線の境界の横位置、車線に対する自車両のヨー角、車線の曲率、及び車線の曲率の変動を含むモデルパラメータを推定し、前記推定されたモデルパラメータ及び前記クロソイドスプラインモデルに基づいて、自車両が走行している車線の境界を検出する請求項1〜請求項の何れか1項記載の自車走行レーン推定装置。
  6. コンピュータを、
    自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段、
    自車両の目的地までの走行経路に基づいて、自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡のうち、自車両の走行に関連する車両走行軌跡を選択する関連軌跡選択手段、及び
    前記関連軌跡選択手段によって選択された車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段
    として機能させるためのプログラムであって、
    前記自車走行レーン推定手段は、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる、走行レーン上の各制御点の座標を含む前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する
    プログラム
  7. コンピュータを、
    自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段、
    自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡から、複数の進行方向の各々について、前記進行方向の車両走行軌跡を取得する複数方向軌跡取得手段、及び
    前記複数の進行方向の各々について、前記複数方向軌跡取得手段によって取得された前記進行方向の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段
    として機能させるためのプログラムであって、
    前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる、走行レーン上の各制御点の座標を含む前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する
    プログラム
  8. コンピュータを、
    自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段、
    自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡から、複数の走行車線の各々について、前記走行車線の走行軌跡を生成する複数車線軌跡取得手段、及び
    前記複数の走行車線の各々について、前記複数車線軌跡取得手段によって取得された前記走行車線の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段
    として機能させるためのプログラムであって、
    前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる、走行レーン上の各制御点の座標を含む前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する
    プログラム
JP2014182264A 2014-09-08 2014-09-08 自車走行レーン推定装置及びプログラム Expired - Fee Related JP6492469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014182264A JP6492469B2 (ja) 2014-09-08 2014-09-08 自車走行レーン推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014182264A JP6492469B2 (ja) 2014-09-08 2014-09-08 自車走行レーン推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2016057750A JP2016057750A (ja) 2016-04-21
JP6492469B2 true JP6492469B2 (ja) 2019-04-03

Family

ID=55758424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014182264A Expired - Fee Related JP6492469B2 (ja) 2014-09-08 2014-09-08 自車走行レーン推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6492469B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7016214B2 (ja) * 2016-11-29 2022-02-04 アルパイン株式会社 走行可能領域設定装置および走行可能領域設定方法
KR101961528B1 (ko) * 2016-12-30 2019-07-17 경북대학교 산학협력단 차선 이탈 감지 장치 및 방법
DE112019000122T5 (de) * 2018-02-27 2020-06-25 Nvidia Corporation Echtzeiterfassung von spuren und begrenzungen durch autonome fahrzeuge
CN110174113B (zh) * 2019-04-28 2023-05-16 福瑞泰克智能系统有限公司 一种车辆行驶车道的定位方法、装置及终端
US11499833B2 (en) * 2019-09-25 2022-11-15 GM Global Technology Operations LLC Inferring lane boundaries via high speed vehicle telemetry
KR20220088710A (ko) 2019-11-06 2022-06-28 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어 방법
JP7277349B2 (ja) * 2019-12-12 2023-05-18 日立Astemo株式会社 運転支援装置、および、運転支援システム
US11688155B2 (en) 2020-01-06 2023-06-27 Luminar, Llc Lane detection and tracking techniques for imaging systems
US11761787B2 (en) 2020-04-08 2023-09-19 Nissan Motor Co., Ltd. Map information correction method, driving assistance method, and map information correction device
CN112706785B (zh) * 2021-01-29 2023-03-28 重庆长安汽车股份有限公司 一种自动驾驶车辆行驶环境认知目标选择方法、装置及存储介质
WO2023046975A1 (en) * 2021-09-27 2023-03-30 Continental Autonomous Mobility Germany GmbH Method and system for lane tracking for an autonomous vehicle
GB2611117A (en) * 2021-09-27 2023-03-29 Continental Autonomous Mobility Germany GmbH Method and system for lane tracking for an autonomous vehicle
CN116465394B (zh) * 2023-06-19 2023-11-03 西安深信科创信息技术有限公司 基于车辆轨迹数据的路网结构生成方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3700625B2 (ja) * 2001-08-28 2005-09-28 日産自動車株式会社 道路白線認識装置
DE10349631A1 (de) * 2003-10-24 2005-05-19 Robert Bosch Gmbh Fahrerassistenzverfahren und -vorrichtung auf der Basis von Fahrspurinformationen
JP2009020549A (ja) * 2007-07-10 2009-01-29 Mazda Motor Corp 車両の運転支援装置
EP2352664A4 (en) * 2008-11-06 2014-04-23 Volvo Technology Corp METHOD AND SYSTEM FOR DETERMINING ROAD DATA
JP2010191661A (ja) * 2009-02-18 2010-09-02 Nissan Motor Co Ltd 走行路認識装置、自動車及び走行路認識方法
JP5505453B2 (ja) * 2012-04-26 2014-05-28 株式会社デンソー 車両用挙動制御装置
JP5966965B2 (ja) * 2013-02-19 2016-08-10 株式会社デンソー 車線境界線逸脱抑制装置及び車線境界線逸脱抑制方法

Also Published As

Publication number Publication date
JP2016057750A (ja) 2016-04-21

Similar Documents

Publication Publication Date Title
JP6492469B2 (ja) 自車走行レーン推定装置及びプログラム
US20210311490A1 (en) Crowdsourcing a sparse map for autonomous vehicle navigation
US11200433B2 (en) Detection and classification systems and methods for autonomous vehicle navigation
US10248124B2 (en) Localizing vehicle navigation using lane measurements
JP6197393B2 (ja) レーン地図生成装置及びプログラム
AU2022203635A1 (en) Crowdsourcing and distributing a sparse map, and lane measurements or autonomous vehicle navigation
JP6747269B2 (ja) 物体認識装置
JP6171612B2 (ja) 仮想レーン生成装置及びプログラム
Han et al. Road boundary detection and tracking for structured and unstructured roads using a 2D lidar sensor
US20220035378A1 (en) Image segmentation
JP2008250687A (ja) 地物情報収集装置及び地物情報収集方法
CN112781599B (zh) 确定车辆的位置的方法
JP2008065087A (ja) 静止物地図生成装置
JP2007303842A (ja) 車両位置推定装置及び地図情報作成装置
Revilloud et al. An improved approach for robust road marking detection and tracking applied to multi-lane estimation
Rabe et al. Lane-level map-matching based on optimization
JP6507841B2 (ja) 先行車両推定装置及びプログラム
Kellner et al. Multi-cue, model-based detection and mapping of road curb features using stereo vision
CN115923839A (zh) 一种车辆路径规划方法
Kellner et al. Laserscanner based road curb feature detection and efficient mapping using local curb descriptions
Matthaei et al. Robust grid-based road detection for ADAS and autonomous vehicles in urban environments
CN115195773A (zh) 用于控制车辆驾驶的装置和方法及记录介质
Meis et al. A new method for robust far-distance road course estimation in advanced driver assistance systems
KR20200002257A (ko) 꼭지점 검출 기반의 도로 표지판 검출 방법 및 장치
Guo et al. Improved lane detection based on past vehicle trajectories

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees