JP6845124B2 - 走路推定装置及びプログラム - Google Patents

走路推定装置及びプログラム Download PDF

Info

Publication number
JP6845124B2
JP6845124B2 JP2017232840A JP2017232840A JP6845124B2 JP 6845124 B2 JP6845124 B2 JP 6845124B2 JP 2017232840 A JP2017232840 A JP 2017232840A JP 2017232840 A JP2017232840 A JP 2017232840A JP 6845124 B2 JP6845124 B2 JP 6845124B2
Authority
JP
Japan
Prior art keywords
boundary line
track
white line
line candidate
candidate point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017232840A
Other languages
English (en)
Other versions
JP2019101821A (ja
Inventor
高橋 新
新 高橋
俊輔 鈴木
俊輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2017232840A priority Critical patent/JP6845124B2/ja
Publication of JP2019101821A publication Critical patent/JP2019101821A/ja
Application granted granted Critical
Publication of JP6845124B2 publication Critical patent/JP6845124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、走路推定装置及びプログラムに関する。
従来より、車載カメラで前方の走路の平面線形とともに、勾配変化等の縦断線形を推定する方法として、(a)ステレオカメラを利用して道路の三次元構造を復元する方法(特許文献1〜3)、(b)単眼カメラで地図情報を利用する方法(特許文献4)、(c)単眼カメラで車線幅一定の仮定を利用する方法(特許文献5)、(d)単眼カメラで白線の間隔が一定の破線であることを仮定する方法(特許文献6)、(e)車載単眼カメラの移動ステレオにより路面勾配変化を推定する方法(特許文献7)などが提案されている。
特開平9−50592号広報 特開平9−325026号広報 特開2011−28659号広報 特開平11−39464号広報 特開平9−48299号広報 特開2012−255703号広報 特開2013−239143号広報
しかしながら、上述の方法には、以下のような問題がある。
上記特許文献1〜3記載の方法では、単眼カメラに比べて、カメラ数が増加し、ステレオカメラ画像間のマッチング計算に専用ハードが必要で、コストが増大する。
上記特許文献4記載の方法では、道路の高さを含む3次元構造を表現する地図情報が必要となり、その地図の作成コストが増大する。車両位置と地図とマッチングをとるために測位装置が必要となる。
上記特許文献5記載の方法では、左右の車線境界線(白線)が無いと計算できない。すなわち、片方の白線が摩耗して掠れていたり、分岐や合流箇所で片方の白線が無かったりする箇所では適用できない。
上記特許文献6記載の方法では、白線が実線の場合に適用できない。すなわち、実線の場合は、白線は単調な形状であるため、連続する二時刻間で白線上の点の一対一照合が困難であり、画像処理の分野で窓問題(Aperture Problem)に陥ってしまう。そのため、単眼ステレオによる三次元復元が困難である。
上記特許文献7記載の方法では、2時刻間の画像のマッチング計算に専用ハードが必要で、コストが増大する。また、特に白線に関しては、画像処理の窓問題(Aperture Problem)が発生して、2時刻の白線候補点間のマッチング点が一意に決まらず計算困難である。
すなわち、撮像画像に写る道路上の車線境界線(白線)が左右どちらか一方だけ単独の場合、かつ、路面勾配変化がある場合には、精度良く走路を推定することができない、という問題があった。
本発明は、上記問題点を解決するためになされたもので、走路に勾配変化がある場合であっても、精度良く走路の境界線を推定することができる走路推定装置及びプログラムを提供することを目的とする。
上記の目的を達成するために、本発明の走路推定装置は、移動体に搭戦された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出する境界線候補点抽出部と、前記複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット、及び姿勢角とを含む状態ベクトルを前記境界線候補点と前記状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定する走路パラメータ推定部と、を含んで構成される。
また、本発明のプログラムは、コンピュータを、移動体に搭戦された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出する境界線候補点抽出部、及び前記複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット、及び姿勢角とを含む状態ベクトルを前記境界線候補点と前記状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定する走路パラメータ推定部として機能させるためのプログラムである。
本発明の走路推定装置及びプログラムによれば、境界線候補点抽出部が、移動体に搭戦された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出し、走路パラメータ推定部が、前記複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット、及び姿勢角とを含む状態ベクトルを前記境界線候補点と前記状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定する。
このように、走路の画像から、線状に並んだ複数の境界線候補点を抽出し、複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、境界線に対する移動体のオフセット、及び姿勢角とを含む状態ベクトルを境界線候補点と状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定することにより、走路に勾配変化がある場合であっても、精度良く走路を推定することができる。
また、本発明の走路推定装置は、移動体に搭載された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出する境界線候補点抽出部と、前記複数の境界線候補点を観測値として、カルマンフィルタにより、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット、及び姿勢角とを含む状態ベクトルを推定する走路パラメータ推定部と、を含んで構成される。
本発明に係る走路推定装置によれば、境界線候補点抽出部が、移動体に搭載された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出し、走路パラメータ推定部が、前記複数の境界線候補点を観測値として、カルマンフィルタにより、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット、及び姿勢角とを含む状態ベクトルを推定する。
このように、走路の画像から、線状に並んだ複数の境界線候補点を抽出し、複数の境界線候補点を観測値として、カルマンフィルタにより、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、境界線に対する移動体のオフセット、及び姿勢角とを含む状態ベクトルを推定することにより、走路に勾配変化がある場合であっても、精度良く走路を推定することができる。
また、本発明の走路推定装置は、前記境界線の線形に関するパラメータは、水平面における前記境界線の曲率及び曲率変化率と、垂直断面における前記境界線の曲率とであるとすることができる。
また、本発明の走路推定装置は、前記境界線の線形に関するパラメータは、水平面における前記境界線の曲率及び曲率変化率と、及び垂直断面における前記境界線の曲率及び曲率変化率とであるとすることができる。
また、本発明の走路推定装置は、前記境界線候補点抽出部は、前記複数の境界線候補点から境界線幅を算出し、前記状態ベクトルは、前記境界線幅を更に含むことができる。
また、本発明の走路推定装置は、前記状態ベクトルは、前記複数の境界線候補点の各々までの実空間上の距離のうち、最遠点である前記境界線候補点の実空間上の距離と、前記境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット及び姿勢角とを含むことができる。
また、本発明の走路推定装置は、前記走路パラメータ推定部は、カルマンフィルタの時間更新行列として、前記境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット、及び姿勢角と、前記複数の境界線候補点の各々までの実空間上の距離との各々に対応する要素を含む行列を用いて、前記状態ベクトルを推定することができる。
また、本発明の走路推定装置は、前記移動体の車速と、前記移動体の姿勢角とを取得する取得部を更に含み、前記走路パラメータ推定部は、前記車速と、前記姿勢角とに対応する要素を更に含む前記時間更新行列を用いて、前記状態ベクトルを推定することができる。
以上説明したように、本発明の走路推定装置及びプログラムによれば、走路の画像から、線状に並んだ複数の境界線候補点を抽出し、複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の距離と、境界線の線形に関するパラメータと、境界線に対する移動体のオフセット、及び姿勢角とを含む状態ベクトルを境界線候補点と状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定することにより、走路に勾配変化がある場合であっても、精度良く走路を推定することができる、という効果が得られる。
従来技術と本発明の実施の形態との違いを示すイメージ図である。 本発明の実施の形態における処理の流れの概要を表す図である。 本発明の実施の形態における走路推定装置の概略構成を示すブロック図である。 本発明の第1の実施の形態における道路モデルの例を示す図である。 本発明の実施の形態における走路パラメータ推定処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態における数値実験(A)のシミュレーション結果を示す図である。 本発明の実施の形態における数値実験(B)のシミュレーション結果を示す図である。 本発明の第2の実施の形態における道路モデルの例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の概要>
従来技術(特許文献7)では、単眼移動ステレオを用いて路面の三次元構造を復元して、路面の凹凸を推定する方法が提案されていた。この従来技術では、2時刻間で同一の路面特徴点を照合して、その照合結果と車速から、三角測量の原理で距離を算出し、路面の垂直輪郭を検出していた。
しかし、白線は単調な形状であるため、2時刻間の白線点を一対一で高精度に照合することは難しかった(図1)。そのため、個々の白線点の照合に基づく、白線の3次元構造の復元は困難だった。
本発明の実施の形態では、2時刻間の個々の白線点を照合せずに、白線の3次元構造(平面線形、縦断線形)を推定する。このことにより、路面勾配変化(路面の起伏)箇所での、平面曲率の誤差を低減し、走路認識に基づく自動走行を安定化させる。
解決のアプローチは、白線の3次元構造(平面線形、縦断線形)を滑らかな関数(3次関数)でモデル表現して、自車両の移動による画像上の白線パターン全体の形状変化を追跡することにより3次元構造(平面線形、縦断線形)を復元する。また、白線パターン全体の形状パターンを追跡するので、個々の白線点の照合は不要となる。
車載単眼カメラ画像による走路認識において、3次元の白線パターン全体を2時刻間で照合・追跡することにより、従来推定困難だった路面勾配変化・片側単独白線の場合でも走路推定が可能となる。
本実施の形態の処理の流れの概略を図2に示す。車載単眼カメラによって道路画像を撮像し、そして入力された道路画像上をスキャンして、背景(路面)から輝度が明るく変化する点(白線の稜線部)から数点の観測点(以後、白線点)を抽出する。
この白線点を観測値として、道路モデルのパラメータ推定値をカルマンフィルタで更新して、後段の警報や制御へ推定値を出力する。
また、本実施の形態における道路モデルは、パラメータとして、白線の平面線形(平面曲線曲率とその曲率変化率)、白線の縦断線形(縦断曲線曲率とその曲率変化率)、白線上の着目点までの三次元距離、および、白線とカメラ(車両)との相対位置姿勢、を含むものである。
当該道路モデルに、パラメータとして、白線の縦断線形と、白線上の着目点までの三次元距離とを道路モデルに含むことにより、路面勾配変化・片側単独白線の場合の曲率、ヨー角、曲率等の推定精度が改善することができる。
以下、車載単眼カメラ画像による走路推定へ適用する場合について説明し、実験により、路面勾配変化・片側単独白線の場合の曲率、ヨー角、曲率等の推定精度が改善できたことを説明する。なお、本実施形態では、簡単のために白線上の着目点は観測点と一致させている。
<本発明の第1の実施形態に係る走路推定装置100の構成>
図3に示すように、本発明の第1の実施の形態に係る走路推定装置100は、自車両の前方を撮像する撮像装置110と、ヨーレイトセンサ120と、車速センサ130と、撮像装置110によって撮像された自車両の前方の道路画像、ヨーレイトセンサ120によって検出された自車両のヨーレイト、及び車速センサ130によって検出された自車両の車速に基づいて、走路パラメータを推定するコンピュータ140とを備えている。
撮像装置110は、自車両の前方の道路を撮像する車載単眼カメラ画像である。撮像装置110は、例えば車両のリアビューミラー付近に設置され、自車両が走行する走路の画像の一例として、自車両の前方の道路画像を撮像する。
コンピュータ140は、CPUと、RAMと、後述する走路パラメータ推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。
コンピュータ140は、境界線候補点抽出部142と、走路パラメータ推定部144と、走路パラメータ記憶部146とを備えている。
境界線候補点抽出部142は、撮像装置110によって撮像された道路画像に基づいて、自車両が走行する走行車線の境界として、線状に並んだ複数の白線の候補点である白線点を抽出する。
具体的には、境界線候補点抽出部142は、道路画像から走行車線と白線との境界線の候補点の位置の座標値を抽出する。例えば、自車両が走行中の車線の左又は右の白線との境界線を抽出する。
一般には、走路には白線が敷設されているため、境界線候補点抽出部142は、白線点を走行車線の境界線の候補点として抽出する。白線は、道路画像上では走路面に対して輝度が高いため、境界線候補点抽出部142は、例えば、道路画像を既知のSobelフィルタ等によって処理し、得られた処理結果が閾値よりも大きい点を走行車線の白線点として抽出する。なお、白線点は、走行車線と隣接する車線と白線との境界線の候補点として抽出されてもよい。
さらに、白線は、局所的には進行方向に直線状に連続しているため、Hough変換等の手法により、直線状に連続している箇所を、車線の白線点として絞り込んでもよい。
そして、境界線候補点抽出部142は、抽出した複数の白線点の道路画像上の座標値を算出し、走路パラメータ推定部144に渡す。
走路パラメータ推定部144は、境界線候補点抽出部142により抽出した複数の白線点の座標に基づいて、走路パラメータを、境界線候補点と状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定する。例えば、走路パラメータ推定部144は、カルマンフィルタを用いて、当該状態ベクトルを推定する。
ここで、走路パラメータを、カルマンフィルタを用いて推定する原理について説明する。
まず、本実施の形態における道路モデルについて説明する。
道路上の白線の平面線形と縦断線形は、カメラ位置を原点として三次元直交座標系XYZ上の曲線として表現する(図4)。
白線の平面線形は、下記式(1)で表す。
また、白線の縦断線形は、下記式(2)で表す。
ここで、eは白線のオフセット[m]、cは道路の曲率[1/m]、cは道路の曲率変化率(

)[1/m]、cv0は道路の縦断曲率[1/m]、cv1は道路の縦断曲率の変化率(

)[1/m]、hは路面平面からのカメラの高さ[m]、xはj番目の白線点(観測値)のX座標値[画素]、yはj番目の白線点(観測値)のY座標値[画素]、zはj番目の白線点(観測値)のZ座標値(距離)[画素]である。
次に、下記式(3)〜(5)から、ヨー角θ(単位は[rad])による回転座標変換後の白線点座標値を得る。
次に、下記式(6)〜(8)から、ピッチ角φ(単位は[rad])による回転座標変換後の白線点座標値を得る。
そして、下記式(9)及び(10)で表す射影変換により、画像上のj番目の白線点座標値(ix,iy)が計算できる。
このとき、ixは、画像上のj番目の白線点の水平方向の座標値[画素]、iyは、画像上のj番目の白線点の垂直方向の座標値[画素]である。
また、fは焦点距離[m]、ixは画像中心の水平方向の座標値[画素]、iyは画像中心の垂直方向の座標値[画素]、rは画像の水平方向の解像度[m/画素]、rは画像の垂直方向の解像度[m/画素]である。
上記をまとめると、j番目の白線点に対して、下記式(11)の観測関数が得られる。
そして、観測するm個の白線点をまとめた観測関数hは、下記式(12)で表される。
以上のカルマンフィルタの推定パラメータを要素とした状態ベクトルxを、下記式(13)に示す。
このとき、Tは転置記号である。
このように、本実施の形態に係る状態ベクトルxは、パラメータとして、白線の平面線形に関するパラメータ(平面曲線曲率cとその曲率変化率c)、白線の縦断線形に関するパラメータ(縦断曲線曲率cv0とその曲率変化率cv1)、白線点までの三次元距離z,・・・,zm−1を含む。
次に、この状態ベクトルxの時刻t−1からtへの離散時間更新モデルを下記式(14)〜(16)に示す。
このとき、Δtは時刻t−1から時刻tまでの更新時間[s]、Δzは更新時間Δt内の移動距離(=車速×Δt)[m]、ωはヨーレイト[rad/s]、uはシステムノイズ、Fは状態ベクトルxの時間更新行列、Bはヨーレイトωから状態ベクトルxへの寄与項である。
次に、カルマンフィルタの更新式を示す。カルマンフィルタはダイナミクスによる時間更新と、白線点の観測による観測更新の2ステップを更新時間毎に交互に実行する。
時間更新について、下記式(17)及び(18)に示す。
観測更新について、下記式(19)〜式(22)に示す。
このとき、Pは誤差共分散行列、Hは観測ヤコビアン行列、Rは観測ノイズ分散行列、Qはシステムノイズ共分散行列(Q=E[uu],Kはカルマンゲイン、yは観測値ベクトルである。
ここで、観測値ベクトルyは、道路画像から境界線候補点抽出部142により抽出されたm個の白線点の座標値(ix,iy)を、順に並べたベクトルである(下記式(23))。
また、観測ヤコビアン行列Hは、下記式(24)のように、0,・・・,m−1番目の観測関数hを状態ベクトルxで偏微分した観測ヤコビアン行列Hを縦に積み重ねた形となる。
このとき、j番目の白線点の観測ヤコビアン行列Hは、下記式(25)で表される。
以上説明した原理により、走路パラメータ推定部144は、抽出した複数の白線点の座標である観測値ベクトルyに基づいて、走路パラメータを含む状態ベクトルxを推定する。
また、走路パラメータ推定部144は、状態ベクトルxについて、曲率変化率cv1を含まないものとすることができる。この場合、上記の各行列(F、B、H等)から曲率変化率cv1に対応する要素を除くように構成すればよい。白線の縦断線形に関するパラメータ(縦断曲線曲率cv0)を考慮しつつ、曲率変化率cv1を含めた場合よりも計算量を抑えることができるためである。
また、走路パラメータ推定部144は、白線点までの実空間上の距離のパラメータを、最遠点の白線点に限定する構成としてもよい。この場合、状態ベクトルxについて、最遠点以外の白線点までの実空間上の距離のパラメータを含まないものとし、上記の各行列(F、B、H等)から最遠点以外の白線点までの実空間上の距離のパラメータに対応する要素を除くように構成すればよい。最遠点の境界線候補点の有無が推定精度に最も寄与するものであるため、最遠点の境界線候補点以外の境界候補点については、走路パラメータの推定に用いない構成とすることができる。このような構成により、走路パラメータの推定精度を維持しつつ、状態ベクトルxのパラメータ数と、観測値数とを低減することができ、計算量の低減を図ることができるからである。
最遠点の白線点に限定する構成とする場合、例えば、状態ベクトルxを示す上記式(13)において、白線点までの三次元距離z,・・・,zm−1のうち、最も遠い三次元距離(例えば、zm−1)のみを用い、他の三次元距離(z,・・・,zm−2)については、状態ベクトルxに含めないものとする。この場合、上記の各行列(F、B、H等)から他の三次元距離(z,・・・,zm−2)に対応する要素を除くように構成する。また、この場合、上記式(23)において、観測値ベクトルyは、ixm−1と、iym−1とを要素とする。
具体的には、走路パラメータ推定部144は、境界線候補点抽出部142により抽出された走行車線の境界の位置(道路画像上の走行車線の白線点の座標値)に基づいて、カルマンフィルタにより走路パラメータの推定処理を行う。
カルマンフィルタによる推定処理は、予測ステップとフィルタリングステップとを含んで構成される。以下、走路パラメータ推定部144によって実行されるカルマンフィルタによる予測ステップとフィルタリングステップとについて説明する。
(1)予測ステップ
まず、予測ステップにおける処理について説明する。走路パラメータ推定部144は、予測ステップにおいて、走路パラメータ記憶部146に記憶されている前回のフィルタリングステップで算出された時刻t−1の走路パラメータxt−1と、上記式(16)に示す時間更新行列Fとに基づいて、上記式(17)に従って、時刻tの走路パラメータxt,t−1を算出する。
そして、走路パラメータ推定部144は、上記式(16)に示す時間更新行列Fと、走路パラメータ記憶部146に記憶されている前回のフィルタリングステップで推定された誤差共分散行列Pt−1と、システムノイズ共分散行列Qとに基づいて、上記式(18)に従って、誤差共分散行列Pt,t−1を算出する。
(2)フィルタリングステップ
次に、フィルタリングステップにおける処理について説明する。走路パラメータ推定部144は、フィルタリングステップにおいて、予測ステップで算出された誤差共分散行列Pt,t−1と、観測ヤコビアン行列Hと、観測ノイズ分散行列Rとに基づいて、上記式(21)に従って、カルマンゲインKを算出する。
走路パラメータ推定部144は、算出されたカルマンゲインKと、予測ステップで算出された時刻tにおける状態ベクトルxt,t−1と、境界線候補点抽出部142により算出された白線点の座標値を用いて得られる観測値ベクトルyとに基づいて、上記式(19)に従って、時刻tにおける走路パラメータxを推定する。
そして、走路パラメータ推定部144は、予測ステップで推定された誤差共分散行列Pt,t−1と、算出されたカルマンゲインKと、上記式(22)に示す観測ヤコビアン行列Hとに基づいて、上記式(20)に従って、誤差共分散行列Pを算出する。
走路パラメータ推定部144は、フィルタリングステップで算出された各値(カルマンゲインK、走路パラメータx、誤差共分散行列P)を走路パラメータ記憶部146へ渡す。当該各値は、次回の予測ステップにおける処理で用いられる。
また、走路パラメータ推定部144は、推定された走路パラメータを、警報装置150及び車両制御装置160へ出力する。
走路パラメータ記憶部146は、走路パラメータ推定部144で算出された各値(カルマンゲインK、走路パラメータx、誤差共分散行列P)を記憶する。
警報装置150は、走路パラメータに基づいて、自車両のドライバーに対し警報を出力する。例えば、走路パラメータに含まれる自車両のオフセット(横位置)と、自車両のヨー角に基づいて、車線逸脱を示す警報を出力する。
車両制御装置160は、走路パラメータの各々に基づいて、運転支援や自動運転を行う。
<本発明の第1の実施の形態に係る走路推定装置100の動作>
次に、本実施形態に係る走路推定装置100の動作について説明する。まず、自車両が走行し、撮像装置110によって自車両の前方が逐次撮像され、ヨーレイトセンサ120によって自車両のヨーレイトが逐次検出され、車速センサ130によって自車両の車速が逐次検出されているときに、コンピュータ140において、図5に示す走路パラメータ推定処理ルーチンが実行される。
まず、ステップS100において、コンピュータ140は、撮像装置110から道路画像と、ヨーレイトセンサ120からヨーレイトと、車速センサ130から車速とを取得する。
次に、ステップS110において、境界線候補点抽出部142は、撮像装置110によって撮像された道路画像に基づいて、線状に並んだ複数の白線の候補点である白線点を抽出する。
ステップS120において、境界線候補点抽出部142は、白線点の道路画像上の座標値を算出する。
ステップS130において、境界線候補点抽出部142は、全ての白線点について座標値を算出したか否かを判定する。
全ての白線点について座標値を算出していない場合(ステップS130のNO)、ステップS120に戻り、次の白線点を選択して座標値を算出する。
全ての白線点について座標値を算出した場合(ステップS130のYES)、ステップS140において、走路パラメータ推定部144は、カルマンフィルタの予測ステップにおいて、走路パラメータ記憶部146に記憶されている前回のフィルタリングステップで算出された時刻t−1の走路パラメータxt−1と、上記式(16)に示す時間更新行列Fとに基づいて、上記式(17)に従って、時刻tの走路パラメータxt,t−1を算出する。
ステップS150において、走路パラメータ推定部144は、上記式(16)に示す時間更新行列Fと、走路パラメータ記憶部146に記憶されている前回のフィルタリングステップで推定された誤差共分散行列Pt−1と、システムノイズ共分散行列Qとに基づいて、上記式(18)に従って、誤差共分散行列Pt,t−1を算出する。
ステップS160において、走路パラメータ推定部144は、フィルタリングステップにおいて、予測ステップで算出された誤差共分散行列Pt,t−1と、観測ヤコビアン行列Hと、観測ノイズ分散行列Rとに基づいて、上記式(21)に従って、カルマンゲインKを算出する。
ステップS170において、走路パラメータ推定部144は、算出されたカルマンゲインKと、予測ステップで算出された時刻tにおける状態ベクトルxt,t−1と、上記ステップS120で算出された全ての白線点の座標値を用いて得られる観測値ベクトルyとに基づいて、上記式(19)に従って、時刻tにおける走路パラメータxを推定する。
ステップS180において、走路パラメータ推定部144は、予測ステップで推定された誤差共分散行列Pt,t−1と、算出されたカルマンゲインKと、上記式(22)に示す観測ヤコビアン行列Hとに基づいて、上記式(20)に従って、誤差共分散行列Pを算出する。
ステップS190において、走路パラメータ推定部144は、フィルタリングステップで算出された各値(カルマンゲインK、走路パラメータx、誤差共分散行列P)を走路パラメータ記憶部146へ渡すと共に、推定された走路パラメータを、警報装置150及び車両制御装置160へ出力して、ステップS100に戻る。
<本発明の第1の実施の形態に係る実験結果>
次に、本実施の形態に係る手法を確認した数値実験について説明する。
<<数値実験の内容>>
数値実験は、(A)450mRの縦断曲線半径の凹型・凸型縦断線形が連続する直線路、(B)平坦路面で460mRのS字カーブ路、のそれぞれについて、本実施の形態に係る手法と、従来法の動作とを比較して行った。
本数値実験は、認識距離内の時々刻々に観測される白線点座標値をシミュレーションし、カルマンフィルタで推定値を更新した。また、従来法は、平坦路面を仮定して、ピッチ角の推定値を0に固定して推定した。
観測値は、前方道路画像までの右側白線から5点を抽出した。また、オフセットは0.75m、ヨー角とピッチ角は0radに設定した。
<<数値実験の結果>>
図6は、数値実験(A)のシミュレーション結果を、図7は、数値実験(B)のシミュレーション結果を示した図である。
図6(a)及び図7(a)が、曲率についての従来法の推定値(破線)と、本実施の形態に係る手法の推定値(実線)と、真値(点線)とをプロットしたものである。図6(b)及び図7(b)が、縦断曲率についての従来法の推定値(破線)と、本実施の形態に係る手法の推定値(実線)と、真値(点線)とをプロットしたものである。図6(c)及び図7(c)が、オフセットについての従来法の推定値(破線)と、本実施の形態に係る手法の推定値(実線)と、真値(点線)とをプロットしたものである。図6(d)及び図7(d)が、ヨー角についての従来法の推定値(破線)と、本実施の形態に係る手法の推定値(実線)と、真値(点線)とをプロットしたものである。
図6より、路面勾配変化がある場合、本実施の形態に係る手法により縦断曲率と白線点までの距離が推定されて、従来法に比べて推定パラメータの誤差が低減されていることが分かる。
また、図7より、平坦路面のカーブであっても本実施の形態に係る手法には副作用は無く、推定ができていることが確認された。
以上説明したように、本発明の実施の形態に係る走路推定装置によれば、走路の画像から、線状に並んだ複数の境界線候補点を抽出し、複数の境界線候補点を観測値として、カルマンフィルタにより、境界線の平面線形に関するパラメータと境界線の断面線形に関するパラメータと少なくとも1つの境界線候補点の各々までの実空間上の距離とを含む状態ベクトルを推定することにより、走路に勾配変化がある場合であっても、精度良く走路の境界線を推定することができる。
<本発明の第2の実施の形態に係る走路推定装置100の構成>
次に、本発明の第2の実施の形態に係る走路推定装置100の構成について説明する。単独白線の白線幅が画像上で観測できる場合には、白線幅は距離によって画像上の幅が変化して見えるため、距離推定の補助的な情報として有用である。そこで、本実施形態では、状態ベクトルに白線幅を更に含んで走路パラメータを推定する。以下、本実施形態において、上記の実施形態と異なる構成に係る部分について説明する。
本実施形態に係る境界線候補点抽出部142は、撮像装置110によって撮像された道路画像に基づいて、自車両が走行する走行車線の境界として、2本の線状に並んだ複数の白線点を抽出し、白線幅を抽出する。
具体的には、本実施形態に係る境界線候補点抽出部142は、2本のうちの一方として線状に並んだ複数の白線点の位置の座標値と、2本のうち一方として線状に並んだ複数の白線点の位置の座標値とから、白線の幅を算出する。例えば、2本のうち一方として線状に並んだ複数の白線点と、2本のうちの他方として線状に並んだ複数の白線点との間で、距離が近い白線点の組合せを抽出し、当該組合せから、当該白線点での画像上の白線幅を算出する。
そして、本実施形態に係る境界線候補点抽出部142は、2本のうち一方として線状に並んだ複数の白線点の位置の座標値と、複数の白線点の各々について算出した画像上の白線幅とを、走路パラメータ推定部144に渡す。
本実施形態に係る走路パラメータ推定部144は、白線幅を更に追加した状態ベクトルを推定する。
本実施形態における道路モデルについて説明する。
道路上の白線の平面線形と縦断線形は、カメラ位置を原点として三次元直交座標系XYZ上の曲線として表現する(図8)。
ここで、図8に示すj番目の白線点に対応する画面上の白線幅iwは、下記式(26)で表すことができる。
ここで、wlmは走行平面上の白線幅[m]、iwは画像上のj番目の白線幅(観測値)[画素]、αjは下記式(27)で表せられるj番目の白線点における接線の傾きである。
白線幅パラメータwlmを含む状態ベクトルxは、上記式(13)を変形した下記式(28)となる。
このとき、離散時間更新モデルの行列BとFとは、下記式(29)及び式(30)となる。
また、j番目の白線点に対して、下記式(31)の観測関数h(x)が得られる。
また、観測値ベクトルyは、境界線候補点抽出部142で抽出された、2本のうちの一方として線状に並んだm個の白線点の座標値(ix,iy)と対応する白線幅iwを順に並べたベクトルであり、下記式(32)で表される。
また、j番目の白線点に対する観測ヤコビアン行列Hは、下記式(33)のように観測関数h(x)を、状態ベクトルxで偏微分した形となる。
そして、本実施形態に係る走路パラメータ推定部144は、以上説明した走路モデルにより、抽出した複数の白線点の座標である観測値ベクトルyに基づいて、走路パラメータを含む状態ベクトルxを推定する。
以上説明したように、本実施の形態における実施形態に係る走路推定装置によれば、境界線幅を追加した状態ベクトルを推定することにより、直線路とカーブ路の間に緩和曲線が無い場合のように、急峻に曲率が変化するカーブ路において、応答遅れやオーバーシュートを低減することができる。
<本発明の第3の実施の形態に係る走路推定装置100の構成>
次に、本発明の第3の実施の形態に係る走路推定装置100の構成について説明する。第2の実施形態においても、第1の実施形態と同様に、走路パラメータ推定部144は、状態ベクトルxについて、曲率変化率cv1を含まないものとして、計算量を削減することができる。さらに、走路パラメータ推定部144は、白線点までの実空間上のパラメータを最遠点の白線点に限定する構成として、計算量を削減することができる。
そこで、本実施形態では、第2の実施形態において、曲率変化率cv1を含まず、かつ、白線点までの実空間上のパラメータを最遠点の白線点に限定する場合について説明する。なお、本実施形態において、第2の実施形態と異なる構成に係る部分について説明する。
走路パラメータ推定部144は、状態ベクトルxを、下記式(34)で表す。
このとき、縦断線形は、下記式(35)に示す2次式で表現することができる。
また、本実施形態では、観測ベクトルyを、下記式(36)に示す白線点のix座標を5個、iy座標を1個、及び白線幅iwを2個を順に並べたベクトルを用いることとする。
このとき、観測行列Hは、下記式(37)のように示すことができる。
なお、推定パラメータから外したz0〜z3は、観測した白線点のiy座標から、以下の二次方程式の解として求めて、観測行列計算で使用する。
<本発明の第3の実施の形態に係る実験結果>
本実施形態に係るシミュレーションを行うことにより確認したところ、状態ベクトルxの次元数を上記式(34)のように少なくとも8とし、観測ベクトルyの次元数を上記式(36)のように少なくとも8とすることにより、第1の実施の形態に係る実験結果の性能を極端に劣化させることなく、かつ、計算量を低減させることができた。
以上説明したように、本実施の形態における実施形態に係る走路推定装置によれば、走路に勾配変化がある場合であっても、精度良く、かつ、高速に走路の境界線を推定することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記の実施の形態では、移動体として車両を対象とする場合を例に説明したが、これに限定されるものではなく、他の移動体を対象としてもよい。
また、走路の境界線が白線である場合を例に説明したが、これに限定されるものではなく、橙線などの他の色で引かれた境界線であっても良い。
また、走路の境界線としての白線が片側にのみ1つ存在する場合を例に説明したが、これに限定されるものではなく、走路の境界線としての白線が両側にある場合であってもよい。この場合、白線毎に、カルマンフィルタによる推定を行って、走路パラメータを推定すればよい。
また、走路の境界線が曲線がある場合について説明したが、走路の境界線が直線である場合でも、本発明を適用することが可能である。この場合、走路パラメータ推定部144は、直線に近似できる近傍の境界線から、走路の境界線を推定することができる。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
100 走路推定装置
110 撮像装置
120 ヨーレイトセンサ
130 車速センサ
140 コンピュータ
142 境界線候補点抽出部
144 走路パラメータ推定部
146 走路パラメータ記憶部
150 警報装置
160 車両制御装置

Claims (6)

  1. 移動体に搭戦された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出する境界線候補点抽出部と、
    前記複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の三次元距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体の横位置を示すオフセット、及び姿勢角とを含む状態ベクトルを前記境界線候補点と前記状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定する走路パラメータ推定部と、
    を含む走路推定装置。
  2. 前記境界線の線形に関するパラメータは、水平面における前記境界線の曲率及び曲率変化率と、垂直断面における前記境界線の曲率とである請求項1記載の走路推定装置。
  3. 前記境界線の線形に関するパラメータは、水平面における前記境界線の曲率及び曲率変化率と、及び垂直断面における前記境界線の曲率及び曲率変化率とである請求項1記載の走路推定装置。
  4. 前記境界線候補点抽出部は、前記複数の境界線候補点から境界線幅を算出し、
    前記状態ベクトルは、前記境界線幅を更に含む
    請求項1乃至3の何れか1項記載の走路推定装置。
  5. 前記状態ベクトルは、前記複数の境界線候補点の各々までの実空間上の距離のうち、最遠点である前記境界線候補点の実空間上の距離と、前記境界線の線形に関するパラメータと、前記境界線に対する前記移動体のオフセット及び姿勢角とを含む請求項1乃至4の何れか1項記載の走路推定装置。
  6. コンピュータを、
    移動体に搭戦された撮像装置によって撮像された前記移動体の走行する走路の画像から、線状に並んだ複数の境界線候補点を抽出する境界線候補点抽出部、及び
    前記複数の境界線候補点を観測値として、少なくとも1つの境界線候補点の各々までの実空間上の三次元距離と、境界線の線形に関するパラメータと、前記境界線に対する前記移動体の横位置を示すオフセット、及び姿勢角とを含む状態ベクトルを前記境界線候補点と前記状態ベクトルから画像上へ投影した予測点との間の誤差を最小化して推定する走路パラメータ推定部
    として機能させるためのプログラム。
JP2017232840A 2017-12-04 2017-12-04 走路推定装置及びプログラム Active JP6845124B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017232840A JP6845124B2 (ja) 2017-12-04 2017-12-04 走路推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232840A JP6845124B2 (ja) 2017-12-04 2017-12-04 走路推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019101821A JP2019101821A (ja) 2019-06-24
JP6845124B2 true JP6845124B2 (ja) 2021-03-17

Family

ID=66973802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232840A Active JP6845124B2 (ja) 2017-12-04 2017-12-04 走路推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6845124B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188262A1 (ja) * 2022-03-31 2023-10-05 本田技研工業株式会社 地図生成装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521860B2 (ja) * 2000-10-02 2004-04-26 日産自動車株式会社 車両の走行路認識装置
US20070027597A1 (en) * 2003-09-23 2007-02-01 Daimlerchrysler Ag Method and device for recognising lane changing operations for a motor vehicle
JP6412460B2 (ja) * 2015-04-14 2018-10-24 株式会社Soken 走行路推定装置
JP6649047B2 (ja) * 2015-11-11 2020-02-19 トヨタ自動車株式会社 車両走行制御装置

Also Published As

Publication number Publication date
JP2019101821A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
JP6770393B2 (ja) トラッキング装置及びプログラム
US9576207B2 (en) Method for angle calibration of the position of a video camera on board an automotive vehicle
EP2757527B1 (en) System and method for distorted camera image correction
JP4363295B2 (ja) ステレオ画像による平面推定方法
CN112997187A (zh) 基于鸟瞰图点云的二维对象边界框信息估计
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR101100827B1 (ko) 도로주행 로봇의 자기 위치 인식방법
CN111164648B (zh) 移动体的位置推断装置及位置推断方法
JP2020052585A (ja) 区画線認識装置
EP1236126B1 (en) System for detecting obstacles to vehicle motion
JP4256992B2 (ja) 障害物検出装置
JP6845124B2 (ja) 走路推定装置及びプログラム
JP6488226B2 (ja) 走路パラメータ推定装置及びプログラム
US11904843B2 (en) Autonomous parking systems and methods for vehicles
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JP2006053754A (ja) 平面検出装置及び検出方法
JP3985610B2 (ja) 車両用走行路認識装置
CN110570680A (zh) 利用地图信息确定对象位置的方法和系统
CN112513573B (zh) 立体摄像机装置
CN111695379B (zh) 基于立体视觉的地面分割方法、装置、车载设备及存储介质
KR20150144899A (ko) 단안 카메라를 이용한 영상 기반의 전방 추돌 경고 시스템의 거리 추정 방법
JP7238758B2 (ja) 自己位置推定装置、方法及びプログラム
DE102011111856A1 (de) Verfahren und Vorrichtung zur Detektion mindestens einer Fahrspur in einem Fahrzeugumfeld

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6845124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250