JP6770393B2 - トラッキング装置及びプログラム - Google Patents

トラッキング装置及びプログラム Download PDF

Info

Publication number
JP6770393B2
JP6770393B2 JP2016196626A JP2016196626A JP6770393B2 JP 6770393 B2 JP6770393 B2 JP 6770393B2 JP 2016196626 A JP2016196626 A JP 2016196626A JP 2016196626 A JP2016196626 A JP 2016196626A JP 6770393 B2 JP6770393 B2 JP 6770393B2
Authority
JP
Japan
Prior art keywords
sensor
state
output
kalman filter
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016196626A
Other languages
English (en)
Other versions
JP2018060326A (ja
Inventor
高橋 新
新 高橋
俊輔 鈴木
俊輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2016196626A priority Critical patent/JP6770393B2/ja
Priority to US15/724,123 priority patent/US20180137376A1/en
Publication of JP2018060326A publication Critical patent/JP2018060326A/ja
Application granted granted Critical
Publication of JP6770393B2 publication Critical patent/JP6770393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、トラッキング装置及びプログラムに関する。
従来より、車両前方の道路風景を撮像するCCDカメラと、CCDカメラからの映像信号に対して画面全体に一様な処理を施す前処理部と、入力画面上にレーンマーカを検出するための複数の小領域を設定するレーンマーカ検出用小領域設定部と、複数の小領域に対してレーンマーカの一部を検出する直線検出部と、直線検出部による直線検出結果がレーンマーカの一部であることを検証するレーンマーカ候補点検出部と、レーンマーカの検出結果に基づいて車両前方の道路形状を表すための道路モデルパラメータを算出する道路モデルパラメータ算出部と、を有する走行路認識装置が知られている(特許文献1)。この走行路認識装置の道路モデルパラメータ算出部は、時間的および空間的に連続性を有し、パラメータ決定に確率的な合理性のある拡張カルマンフィルタを含む。
また、車両に搭載され、車両に関する観測を行い観測量を出力する複数の観測手段と、複数の観測手段により出力される観測量の信頼度を、観測量毎に算出する信頼度算出手段と、観測手段により出力された観測量、及び信頼度算出手段により算出された観測量の信頼度を推定モデルに入力して車両の状態量を推定する推定手段と、を備える車両状態量推定装置が知られている(特許文献2)。この車両状態量推定装置では、複数の観測手段には、同一種類の観測量を複数出力可能な観測手段が含まれ、信頼度算出手段は、同一の観測手段により出力された同一種類の複数の観測量を含めた複数の観測量について信頼度を算出し、推定手段は、同一の観測手段により出力された同一種類の複数の観測量のそれぞれを前記推定モデルに入力して車両の状態量を推定する。
特開2002-109695号公報 特開2013-129289号公報
しかしながら、カルマンフィルタで使用する時間更新モデルの制御入力項(上記の従来技術では舵角である。)に誤差が加わると、従来のカルマンフィルタでは推定値に定常誤差が発生するという問題があった。
これは、従来のカルマンフィルタでは、システムノイズと観測ノイズしか考慮されていないため、時間更新モデルの制御入力項の誤差が考慮できていなかったためである。言い換えると、時間更新モデルの制御入力項には誤差がないという前提でカルマンフィルタが組まれていたので、制御入力項に誤差がのった場合、それが推定誤差に影響していた。
本発明は、上記の事情に鑑みてなされたもので、センサ出力に誤差がある場合でも、カルマンフィルタにより推定対象の状態の推定値を精度良く求めることができるトラッキング装置及びプログラムを提供することを目的とする。
上記の目的を達成するために本発明に係るトラッキング装置は、センサ観測値に基づいて推定対象の状態の推定値をカルマンフィルタで求めるトラッキング装置であって、前記センサ観測値とは異なるセンサの出力であって、状態の時間更新の入力となる前記センサの出力についての予め定められた変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いて、前記センサ観測値と前記センサの出力とから、前記状態の推定値を求める推定部を含んで構成されている。
本発明に係るプログラムは、センサ観測値に基づいて推定対象の状態の推定値をカルマンフィルタで求めるためのプログラムであって、コンピュータを、前記センサ観測値とは異なるセンサの出力であって、状態の時間更新の入力となる前記センサの出力についての予め定められた変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いて、前記センサ観測値と前記センサの出力とから、前記状態の推定値を求める推定部として機能させるためのプログラムである。
本発明によれば、推定部は、前記センサ観測値とは異なるセンサの出力であって、状態の時間更新の入力となる前記センサの出力についての予め定められた変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いて、前記センサ観測値と前記センサの出力とから、前記状態の推定値を求める。
このように、状態の時間更新の入力となる前記センサの出力についての変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いることにより、センサ出力に誤差がある場合でも、カルマンフィルタにより推定対象の状態の推定値を精度良く求めることができる。
また、本発明のプログラムは、記憶媒体に格納して提供することも可能である。
以上説明したように、本発明のトラッキング装置及びプログラムによれば、状態の時間更新の入力となる前記センサの出力についての変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いることにより、センサ出力に誤差がある場合でも、カルマンフィルタにより推定対象の状態の推定値を精度良く求めることができる、という効果が得られる。
本発明の第1の実施の形態に係る走路認識装置を示すブロック図である。 本発明の第1の実施の形態に係る走路認識装置における走路認識処理ルーチンの内容を示すフローチャートである。 本発明の第1の実施の形態に係る走路認識装置における走路パラメータ推定処理ルーチンの内容を示すフローチャートである。 本発明の第2の実施の形態に係る歩行者検出装置を示すブロック図である。 歩行者の位置を説明するための図である。 本発明の第2の実施の形態に係る歩行者検出装置における歩行者検出処理ルーチンの内容を示すフローチャートである。 本発明の第2の実施の形態に係る歩行者検出装置における歩行者パラメータ推定処理ルーチンの内容を示すフローチャートである。 従来手法と本実施の形態に係る手法との比較を説明するための図である。 従来手法と本実施の形態に係る手法との比較を説明するための図である。 従来手法と本実施の形態に係る手法との比較を説明するための図である。
以下、図面を参照して、本発明の実施の形態について説明する。本発明の第1の実施の形態では、走路パラメータを推定する走路認識装置に本発明を適用した場合を例に説明する。
[第1の実施の形態]
<走路認識装置のシステム構成>
図1に示すように、第1の実施の形態に係る走路認識装置10は、自車両の前方を撮像する撮像装置12と、車速センサ14と、ヨーレイトセンサ16と、撮像装置12によって撮像された自車両の前方の道路画像、車速センサ14によって検出された自車両の車速、及びヨーレイトセンサ16によって検出された自車両のヨーレイトに基づいて、走路パラメータを推定するコンピュータ18とを備えている。
撮像装置12は、自車両の前方の道路を撮像する車載カメラである。撮像装置12は、例えば車両のリアビューミラー付近に設置され、自車両が走行する走路の画像の一例として、自車両の前方の道路画像を撮像する。
コンピュータ18は、CPUと、RAMと、後述する走路パラメータ推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ18は、拡張カルマンフィルタの時間更新式の入力項であるヨーレイトの誤差の補正分を算出する入力項補正分算出部30と、算出された補正分をシステムノイズに加算するように設定するシステムノイズ設定部32と、撮像装置12によって撮像された道路画像に基づいて、自車両が走行する走行車線の境界を検出する車線境界検出部34と、自車両が走行する走路に関する走路パラメータを推定する走路パラメータ推定部36とを備えている。
車線境界検出部34は、撮像装置12によって撮像された道路画像に基づいて、自車両が走行する走行車線の境界として、白線の位置を検出する。
具体的には、車線境界検出部34は、道路画像から走行車線の白線の候補点の位置の座標値を抽出する。例えば、自車両が走行中の車線の左又は右の白線を抽出する。
一般には、走路には白線レーンマークが敷設されているため、本実施の形態では、車線境界検出部34は、白線レーンマークを走行車線の境界の候補として抽出する。白線レーンマークは、道路画像上では走路面に対して輝度が高いため、車線境界検出部34は、例えば、道路画像を既知のSobelフィルタ等によって処理し、得られた処理結果が閾値よりも大きい点を走行車線の白線の候補点として抽出する。
さらに、白線レーンマークは、局所的には進行方向に直線状に連続しているため、Hough変換等の手法により、直線状に連続している箇所を、車線の白線の候補として絞り込んでもよい。また、白線レーンマークの幅は局所的には一定なので、白線レーンマークの左右の車線の境界の候補対を照合して、車線の境界の候補点として選別してもよい。
走路パラメータ推定部36は、検出された走行車線の境界の位置(走行車線の白線の候補点の座標値)に基づいて、走路パラメータを、拡張カルマンフィルタを用いて推定する。
ここで、走路パラメータを、拡張カルマンフィルタを用いて推定する原理について説明する。
まず、計算モデルについて説明する。
走路認識のモデルの状態ベクトルを次式に示す。
このとき、状態ベクトルの要素のうち、x0は自車線の横位置[m]であり、θ0はヨー角(車線の傾き)[rad]であり、c0は、道路の曲率[1/m]であり、c1は、道路の曲率変化率[1/m2]であり、φはピッチ角[rad]であり、wは車線幅[m]である。
また、時刻t−1の走路パラメータxt-1から時刻tの走路パラメータxtの時間更新モデルは次式で表現される。
このとき、Vは車速[m/s]であり、ωはヨーレイト[rad/s]であり、Tはカルマンフィルタの更新時間であり、uはQ=E[uuT]となるシステムノイズであり、Fは状態ベクトルxの時間更新行列であり、Bはヨーレイトωから状態ベクトルxへの寄与項である。
走路認識では一般に路面に連続的にペイントされた白線を画像上で観測して、その白線上の点を画像上の座標値を観測値とする。よって、白線点jの観測関数hj(x)は次式で示される。
このとき、Ijは道路画像上のj番目の白線点の垂直方向の座標値[画素]であり、Jjは、道路画像上のj番目の白線点の水平方向の座標値[画素]であり、Hcが路面平面からのカメラ高さ[m]であり、fは焦点距離[m]である。また、Icは画像中心の垂直方向の座標値[画素]であり、Jcは、画像中心の水平方向の座標値[画素]であり、Rvは画像の垂直方向の解像度[m/画素]であり、Rhは画像の水平方向の解像度[m/画素]であり、sは画像上のj番目の白線点が右白線の場合+1、左白線の場合−1であり、tは、画像上のj番目の白線点を路面平面上へ投影した場合の進行方向距離[m]である。
次に、上述した計算モデルに基づくカルマンフィルタの更新式を以下に示す。
時間更新:

観測更新:

このとき、Pは、誤差共分散行列であり、Hは観測行列であり、Rは、観測ノイズの分散行列であり、Qは、システムノイズの分散行列であり、Kはカルマンゲインである。
次に、ヨーレイト誤差の影響低減方法について説明する。
上記式(2−2)の時間更新モデルでヨーレイト誤差Δωを考慮すると次式となる。
ヨーレイト誤差分を考慮して誤差共分散行列の時間更新モデルを見直すと、以下のように展開できる。このとき、x、ωs、Δω、uは無相関で、x、ωsの平均は0と仮定する。
誤差共分散行列の定義より、以下の式が得られる。
平均を表す関数E{}で書き直すと、以下の式が得られる。
カルマンフィルタによる時間更新式中では、ヨーレイトの計測誤差が入るので、以下の式が得られる。
一方、元の系ではヨーレイト誤差を含まないので、以下の式が得られる。
以上より、式(4−3)に式(4−4)と式(4−5)を代入して、以下の式が得られる。
式(4−6)を整理すると、以下の式が得られる。
このとき、E(Δω2)はヨーレイト誤差の二乗平均である。
以上より、以下の式が得られる。
よって、カルマンフィルタ更新式(2−8)を式(4−10)へ置き換えることにより、ヨーレイト誤差分Δωをカルマンフィルタへ取り込み、定常偏差を低減できる。
以上説明した原理により、本実施の形態では、入力項補正分算出部30は、拡張カルマンフィルタの時間更新式の入力項であるヨーレイトの誤差Δωの補正分E{Δω2}BBTを算出する。ただし、ヨーレイトの誤差Δωは、予め定められたものであり、例えば、ヨーレイトセンサ16の分解能である。
システムノイズ設定部32は、上記式(4−10)に従って、算出された補正分E{Δω2}BBTをシステムノイズQに加算するように設定する。
走路パラメータ推定部36は、検出された走行車線の境界の位置(走行車線の白線の候補点の座標値)に基づいて、システムノイズ設定部32により設定された拡張カルマンフィルタにより走路パラメータの推定処理を行う。
拡張カルマンフィルタによる推定処理は、予測ステップとフィルタリングステップとを含んで構成される。以下、走路パラメータ推定部36によって実行される拡張カルマンフィルタによる予測ステップとフィルタリングステップとについて説明する。
(1)予測ステップ
まず、予測ステップにおける処理について説明する。走路パラメータ推定部36は、予測ステップにおいて、前回のステップで算出された時刻t−1の走路パラメータxt-1と、上記式(2−3)に示す更新行列Fとに基づいて、上記式(2−7)に従って、時刻tの走路パラメータxt,t-1を算出する。
そして、走路パラメータ推定部36は、上記式(2−3)に示す更新行列Fと、前回のステップで推定された共分散行列Pt-1と、システムノイズ分散行列Qと、ヨーレイトの誤差Δωの補正分E{Δω2}BBTとに基づいて、上記式(4−10)に従って、共分散行列Pt,t-1を算出する。
(2)フィルタリングステップ
次に、フィルタリングステップにおける処理について説明する。走路パラメータ推定部36は、フィルタリングステップにおいて、予測ステップで算出された共分散行列Pt,t-1と、観測行列Hと、観測ノイズの分散行列Rとに基づいて、上記式(2−11)に従って、カルマンゲインKを算出する。
次に、走路パラメータ推定部36は、算出されたカルマンゲインKと、予測ステップで算出された時刻tにおける状態ベクトルxt,t-1と、上記式(2−5)で示す観測関数を用いて算出される観測値y(=h(x))と、予測値h(xt,t-1)と、上記式(2−12)に示す観測行列Hとに基づいて、上記式(2−9)に従って、時刻tにおける走路パラメータxtを推定する。
そして、走路パラメータ推定部36は、予測ステップで推定された共分散行列Pt,t-1と、算出されたカルマンゲインKと、上記式(2−12)に示す観測行列Hとに基づいて、上記式(2−10)に従って、共分散行列Ptを算出する。
フィルタリングステップで算出された各値(カルマンゲインK、走路パラメータxt、共分散行列Pt)は、次回の予測ステップにおける処理で用いられる。
走路パラメータ推定部36は、推定された走路パラメータを、警報装置20及び車両制御装置22へ出力する。警報装置20は、例えば、走路パラメータに含まれる自車両の横位置に基づいて、車線逸脱を示す警報を出力する。車両制御装置22は、走路パラメータの各々に基づいて、運転支援や自動運転を行う。
<走路認識装置10の動作>
次に、第1の実施の形態に係る走路認識装置10の動作について説明する。まず、自車両が走行し、撮像装置12によって自車両の前方が逐次撮像され、車速センサ14によって自車両の車速が逐次検出され、ヨーレイトセンサ16によって自車両のヨーレイトが逐次検出されているときに、コンピュータ18において、図2に示す走路認識処理ルーチンが実行される。
<走路認識処理ルーチン>
ステップS100において、入力項補正分算出部30は、拡張カルマンフィルタの時間更新式の入力項であるヨーレイトの誤差Δωの補正分E{Δω2}BBTを算出する。
ステップS102において、システムノイズ設定部32は、上記式(4−10)に従って、算出された補正分E{Δω2}BBTをシステムノイズQに加算するように設定する。
ステップS104において、撮像装置12によって撮像された道路画像、車速センサ14によって検出された自車両の車速、及びヨーレイトセンサ16によって検出された自車両のヨーレイトを取得する。
ステップS106において、車線境界検出部34は、上記ステップS104で取得した道路画像から、走行車線の白線の候補点の位置の座標値を抽出する。
ステップS108において、走路パラメータ推定部36は、上記ステップS106で抽出された走行車線の白線の候補点の座標値と、自車両の車速と、自車両のヨーレイトとに基づいて、拡張カルマンフィルタを用いて走路パラメータを推定する。ステップS108は、図3に示す走路パラメータ推定処理ルーチンによって実現される。
<走路パラメータ推定処理ルーチン>
ステップS150において、走路パラメータ推定部36は、予測ステップにおいて、前回のステップS156で算出された走路パラメータxt-1と、上記式(2−3)に示す更新行列Fとに基づいて、上記式(2−7)に従って、時刻tの走路パラメータxt,t-1を算出する。
ステップS152において、走路パラメータ推定部36は、上記式(2−3)に示す更新行列Fと、前回のステップS158で推定された共分散行列Pt-1と、システムノイズ分散行列Qと、ヨーレイトの誤差Δωの補正分E{Δω2}BBTとに基づいて、上記式(4−10)に従って、共分散行列Pt,t-1を算出する。
次のステップS154では、走路パラメータ推定部36は、フィルタリングステップにおいて、上記ステップS152で算出された共分散行列Pt,t-1と、観測行列Hと、観測ノイズの分散行列Rとに基づいて、上記式(2−11)に従って、カルマンゲインKを算出する。
ステップS156では、走路パラメータ推定部36は、上記ステップS154で算出されたカルマンゲインKと、上記ステップS150で算出された時刻tにおける状態ベクトルxt,t-1と、上記式(2−5)で示す観測関数を用いて算出される観測値y(=h(x))と、予測値h(xt,t-1)と、上記式(2−12)に示す観測行列Hとに基づいて、上記式(2−9)に従って、時刻tにおける走路パラメータxtを推定する。
そして、ステップS158では、走路パラメータ推定部36は、上記ステップS152で推定された共分散行列Pt,t-1と、上記ステップS154で算出されたカルマンゲインKと、上記式(2−12)に示す観測行列Hとに基づいて、上記式(2−10)に従って、共分散行列Ptを算出する。
フィルタリングステップで算出された各値(カルマンゲインK、走路パラメータxt、共分散行列Pt)は、次回の予測ステップにおける処理で用いられる。
次に、走路認識処理ルーチンに戻り、ステップS110において、上記ステップS108で得られた走路パラメータを、警報装置20及び車両制御装置22に出力し、ステップS112において、時刻tを1インクリメントして、ステップS104へ戻る。
以上説明したように、第1の実施の形態に係る走路認識装置によれば、状態ベクトルの時間更新の入力となるヨーレイトセンサの出力についての変動に対応する補正分をシステムノイズに加算した拡張カルマンフィルタを用いることにより、ヨーレイトセンサ出力に誤差がある場合でも、カルマンフィルタにより走路パラメータの推定値を精度良く求めることができる。
また、従来のカルマンフィルタでは無視されていた入力項の変動分を考慮してシステムノイズを設定することにより、入力項に起因する推定値の定常誤差が速やかに収束し、推定値の定常誤差が低減される。すなわち、カルマンフィルタによる走路のトラッキングにおいて、推定精度を改善することができる。
また、ヨーレイトを入力とした車載カメラ画像による走路認識において、ヨーレイトに誤差が加わった場合の曲率推定精度が改善される。
[第2の実施の形態]
<歩行者検出装置のシステム構成>
次に、第2の実施の形態について説明する。第2の実施の形態では、歩行者パラメータを推定する歩行者検出装置に本発明を適用した場合を例に説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第2の実施の形態では、歩行者パラメータを推定している点が第1の実施の形態と異なっている。
図4に示すように、第2の実施の形態に係る歩行者検出装置210は、撮像装置12と、車速センサ14と、ヨーレイトセンサ16と、撮像装置12によって撮像された自車両の前方の道路画像、車速センサ14によって検出された自車両の車速、及びヨーレイトセンサ16によって検出された自車両のヨーレイトに基づいて、歩行者パラメータを推定するコンピュータ218とを備えている。
コンピュータ218は、CPUと、RAMと、後述する歩行者パラメータ推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ218は、拡張カルマンフィルタの時間更新式の入力項であるヨーレイトの誤差の補正分及び車速の誤差の補正分を算出する入力項補正分算出部230と、算出された補正分をシステムノイズに加算するように設定するシステムノイズ設定部232と、撮像装置12によって撮像された道路画像に基づいて、自車両の前方に存在する歩行者候補を検出する歩行者候補検出部234と、自車両の前方に存在する歩行者に関する歩行者パラメータを推定する歩行者パラメータ推定部236とを備えている。
歩行者候補検出部234は、撮像装置12によって撮像された道路画像に基づいて、自車両の前方に存在する歩行者候補の位置を検出する。例えば、撮像装置12は、ステレオカメラであり、歩行者候補検出部234は、自車両の前方に存在する歩行者候補の方位及び歩行者候補までの距離を検出する。
歩行者パラメータ推定部236は、検出された走行者候補の位置(歩行者候補の方位及び歩行者候補までの距離)に基づいて、歩行者パラメータを、拡張カルマンフィルタを用いて推定する。
ここで、歩行者パラメータを、拡張カルマンフィルタを用いて推定する原理について説明する。
まず、計算モデルについて説明する。歩行者をトラッキング対象とし、自車両がヨーレイトωで操舵回避して移動している場合において歩行者検出を行う場合を例として説明する。トラッキング対象の位置はその中心点位置座標(xp,zp)として表現する。このとき、カルマンフィルタの状態ベクトルを以下のように定義する。
このとき、状態ベクトルの要素のうち、xpはトラッキング対象のx座標値[m]であり、

は、トラッキング対象のx座標方向移動速度[m/s]であり、zpは、トラッキング対象のz座標値[m]であり、

は、トラッキング対象のz座標方向移動速度[m/s]である。
また、時間更新モデルは次式で表現される。
このとき、ωはヨーレイト[rad/s]であり、vは、車速(z方向の自車両の移動速度) [m/s]であり、Tはカルマンフィルタの更新時間であり、uは、Q=E[uuT]となるシステムノイズであり、Fは状態ベクトルxの時間更新行列であり、Bωはヨーレイトωから状態ベクトルxへの寄与項であり、Bvは車速vから状態ベクトルxへの寄与項である。
レーダやステレオカメラ等で前方障害物や歩行者を検出すると、観測関数h(x)は次式で表される。
このとき、観測値は、θとγであり、θは、トラッキング対象(歩行者候補)の方位[rad]であり、γはトラッキング対象(歩行者候補)までの距離[m]である(図5参照)。
次に、カルマンフィルタ更新式について説明する。
計算モデルに基づく拡張カルマンフィルタの更新式を以下に示す。
時間更新:

観測更新:
このとき、Pは誤差共分散行列であり、Hは観測行列であり、Rは観測ノイズの分散行列であり、Qはシステムノイズ共分散行列であり、Kはカルマンゲインである。
次に、ヨーレイト誤差及び車速誤差の影響低減方法について説明する。
カルマンフィルタ更新式(a−9)を式(a−14)へ置き換えることにより、ヨーレイト誤差分Δω及び車速誤差分Δvをカルマンフィルタへ取り込み、トラッキングの推定誤差を低減できる。

このとき、
ただし、Δωは、ヨーレイトの誤差分[rad]であり、Δvは、車速の誤差分[m/s]である。
以上説明した原理により、本実施の形態では、入力項補正分算出部230は、拡張カルマンフィルタの時間更新式の入力項であるヨーレイトの誤差Δωの補正分E{Δω2}Bωω T、及び車速の誤差Δvの補正分E{Δv2}Bvv Tを算出する。ただし、ヨーレイトの誤差Δωは、予め定められたものであり、例えば、ヨーレイトセンサ16の分解能である。また、車速の誤差Δvは、予め定められたものであり、例えば、車速センサ14の分解能である。拡張カルマンフィルタの最新の

の推定値を得て、Bωを算出する。
システムノイズ設定部232は、上記式(a−14)に従って、算出された補正分E{Δω2}Bωω T、E{Δv2}Bvv TをシステムノイズQに加算するように設定する。
歩行者パラメータ推定部236は、検出された歩行者行候補の位置(歩行者候補の方位及び距離)に基づいて、システムノイズ設定部232により設定された拡張カルマンフィルタにより歩行者パラメータの推定処理を行う。
拡張カルマンフィルタによる推定処理は、予測ステップとフィルタリングステップとを含んで構成される。以下、歩行者パラメータ推定部236によって実行される拡張カルマンフィルタによる予測ステップとフィルタリングステップとについて説明する。
(1)予測ステップ
まず、予測ステップにおける処理について説明する。歩行者パラメータ推定部236は、予測ステップにおいて、前回のステップで算出された時刻t−1の歩行者パラメータxt-1と、上記式(a−3)に示す更新行列Fとに基づいて、上記式(a−8)に従って、時刻tの歩行者パラメータxt,t-1を算出する。
そして、歩行者パラメータ推定部236は、上記式(a−3)に示す更新行列Fと、前回のステップで推定された共分散行列Pt-1と、システムノイズ分散行列Qと、ヨーレイトの誤差Δωの補正分E{Δω2}Bωω Tと、車速の誤差Δvの補正分E{Δv2}Bvv Tと、に基づいて、上記式(a−14)に従って、共分散行列Pt,t-1を算出する。
(2)フィルタリングステップ
次に、フィルタリングステップにおける処理について説明する。歩行者パラメータ推定部236は、フィルタリングステップにおいて、予測ステップで算出された共分散行列Pt,t-1と、観測行列Hと、観測ノイズの分散行列Rとに基づいて、上記式(a−12)に従って、カルマンゲインKを算出する。
次に、歩行者パラメータ推定部236は、算出されたカルマンゲインKと、予測ステップで算出された時刻tにおける状態ベクトルxt,t-1と、上記式(a−5)で示す観測関数を用いて算出される観測値y(=h(x))と、予測値h(xt,t-1)と、上記式(a−13)に示す観測行列Hとに基づいて、上記式(a−10)に従って、時刻tにおける歩行者パラメータxtを推定する。
そして、歩行者パラメータ推定部236は、予測ステップで推定された共分散行列Pt,t-1と、算出されたカルマンゲインKと、上記式(a−13)に示す観測行列Hとに基づいて、上記式(a−11)に従って、共分散行列Ptを算出する。
フィルタリングステップで算出された各値(カルマンゲインK、歩行者パラメータxt、共分散行列Pt)は、次回の予測ステップにおける処理で用いられる。
歩行者パラメータ推定部236は、推定された歩行者パラメータを、警報装置20及び車両制御装置22へ出力する。警報装置20は、例えば、歩行者パラメータに含まれる歩行者位置に基づいて、歩行者との衝突を示す警報を出力する。車両制御装置22は、歩行者パラメータの各々に基づいて、運転支援や自動運転を行う。
<歩行者検出装置210の動作>
次に、第2の実施の形態に係る歩行者検出装置210の動作について説明する。まず、自車両が走行し、撮像装置12によって自車両の前方が逐次撮像され、車速センサ14によって自車両の車速が逐次検出され、ヨーレイトセンサ16によって自車両のヨーレイトが逐次検出されているときに、コンピュータ218において、図6に示す歩行者検出処理ルーチンが実行される。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<歩行者検出処理ルーチン>
ステップS200において、入力項補正分算出部230は、拡張カルマンフィルタの時間更新式の入力項であるヨーレイトの誤差Δωの補正分E{Δω2}Bωω T、及び車速の誤差Δvの補正分E{Δv2}Bvv Tを算出する。
ステップS102において、システムノイズ設定部32は、上記式(a−14)に従って、算出された補正分E{Δω2}Bωω T、E{Δv2}Bvv TをシステムノイズQに加算するように設定する。
ステップS104において、撮像装置12によって撮像された道路画像、車速センサ14によって検出された自車両の車速、ヨーレイトセンサ16によって検出された自車両のヨーレイトを取得する。
ステップS206において、歩行者候補検出部234は、上記ステップS104で取得した道路画像から、歩行者候補の方位及び距離を検出する。
ステップS208において、歩行者パラメータ推定部236は、上記ステップS206で検出された歩行者候補の方位及び距離と、自車両の車速と、自車両のヨーレイトとに基づいて、拡張カルマンフィルタを用いて歩行者パラメータを推定する。ステップS208は、図7に示す歩行者パラメータ推定処理ルーチンによって実現される。
<歩行者パラメータ推定処理ルーチン>
ステップS250において、歩行者パラメータ推定部236は、予測ステップにおいて、前回のステップS256で算出された歩行者パラメータxt-1と、上記式(a−3)に示す更新行列Fとに基づいて、上記式(a−8)に従って、時刻tの歩行者パラメータxt,t-1を算出する。
ステップS252において、歩行者パラメータ推定部236は、上記式(a−3)に示す更新行列Fと、前回のステップS258で推定された共分散行列Pt-1と、システムノイズ分散行列Qと、ヨーレイトの誤差Δωの補正分E{Δω2}Bωω Tと、車速の誤差Δvの補正分E{Δv2}Bvv Tとに基づいて、上記式(a−14)に従って、共分散行列Pt,t-1を算出する。
次のステップS254では、歩行者パラメータ推定部236は、フィルタリングステップにおいて、上記ステップS252で算出された共分散行列Pt,t-1と、観測行列Hと、観測ノイズの分散行列Rとに基づいて、上記式(a−12)に従って、カルマンゲインKを算出する。
ステップS256では、歩行者パラメータ推定部236は、上記ステップS254で算出されたカルマンゲインKと、上記ステップS250で算出された時刻tにおける状態ベクトルxt,t-1と、上記式(a−5)で示す観測関数を用いて算出される観測値y(=h(x))と、予測値h(xt,t-1)と、上記式(a−13)に示す観測行列Hとに基づいて、上記式(a−10)に従って、時刻tにおける歩行者パラメータxtを推定する。
そして、ステップS258では、歩行者パラメータ推定部236は、上記ステップS252で推定された共分散行列Pt,t-1と、上記ステップS254で算出されたカルマンゲインKと、上記式(a−13)に示す観測行列Hとに基づいて、上記式(a−11)に従って、共分散行列Ptを算出する。
フィルタリングステップで算出された各値(カルマンゲインK、歩行者パラメータxt、共分散行列Pt)は、次回の予測ステップにおける処理で用いられる。
次に、歩行者検出処理ルーチンに戻り、ステップS210において、上記ステップS208で得られた歩行者パラメータを、警報装置20及び車両制御装置22に出力し、ステップS112において、時刻tを1インクリメントして、ステップS104へ戻る。
以上説明したように、第2の実施の形態に係る歩行者検出装置によれば、状態ベクトルの時間更新の入力となるヨーレイトセンサ及び車速センサの出力についての変動に対応する補正分をシステムノイズに加算した拡張カルマンフィルタを用いることにより、ヨーレイトセンサ及び車速センサの出力に誤差がある場合でも、カルマンフィルタにより歩行者パラメータの推定値を精度良く求めることができる。
また、カルマンフィルタによる歩行者のトラッキングにおいて、歩行者パラメータの推定精度を改善することができる。
また、ヨーレイトを入力とした車載カメラ画像による歩行者のトラッキングにおいて、ヨーレイトに誤差が加わった場合の追従精度が改善される。
<実施例>
上記第1の実施の形態に係る走路認識装置10による、走路パラメータ推定処理の効果の例を図8〜図10に示す。曲率半径を100mとし、入力項に誤差がある場合の横位置の定常偏差を比較したシミュレーション結果を図8に示した。図8では、カルマンフィルタのヨーレイト入力に誤差が重畳した場合について示している。図8より、入力項に誤差があることを考慮しない従来技術に比べて、横位置の定常偏差が低減していることから、本実施の形態に係る提案法の効果が確認された。
また、曲率半径を100mとし、入力項に誤差がある場合のヨー角の定常偏差を比較したシミュレーション結果を図9に示した。図9では、カルマンフィルタのヨーレイト入力に誤差が重畳した場合について示している。図9より、入力項に誤差があることを考慮しない従来技術に比べて、ヨー角の定常偏差が低減していることから、本実施の形態に係る提案法の効果が確認された。
また、曲率半径を100mとし、入力項に誤差がある場合の曲率の定常偏差を比較したシミュレーション結果を図10に示した。図10では、カルマンフィルタのヨーレイト入力に誤差が重畳した場合について示している。図10より、入力項に誤差があることを考慮しない従来技術に比べて、曲率の定常偏差が低減していることから、本実施の形態に係る提案法の効果が確認された。
なお、上記の実施の形態では、移動体として車両を対象とする場合を例に説明したが、これに限定されるものではなく、他の移動体を対象としてもよい。
また、走路や歩行者をトラッキング対象とする場合を例に説明したが、これに限定されるものではない。例えば、障害物をトラッキング対象としてもよい。
また、撮像装置12に代えてレーザレーダを用いることもできる。レーザレーダは対象までの距離を計測するアクティブセンサであるが反射波の受光強度により道路画像を生成することも可能である。
なお、本発明のプログラムは、記録媒体に格納して提供することができる。
10 走路認識装置
12 撮像装置
14 車速センサ
16 ヨーレイトセンサ
18、218 コンピュータ
20 警報装置
22 車両制御装置
30、230 入力項補正分算出部
32、232 システムノイズ設定部
34 車線境界検出部
36 走路パラメータ推定部
210 歩行者検出装置
234 歩行者候補検出部
236 歩行者パラメータ推定部

Claims (2)

  1. センサ観測値に基づいて推定対象の状態の推定値をカルマンフィルタで求めるトラッキング装置であって、
    前記センサ観測値とは異なるセンサの出力であって、状態の時間更新の入力となる前記センサの出力についての予め定められた変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いて、前記センサ観測値と前記センサの出力とから、前記状態の推定値を求める推定部
    を含み、
    前記センサ観測値を、移動体が走行する走路の画像から検出された、前記移動体が走行する走行車線の境界の位置とし、
    前記センサの出力を、ヨーレイトセンサで検出されたヨーレイトとし、
    前記状態の推定値を、前記移動体に対する車線の横位置、ヨー角、及び設定距離分だけ前方の曲率を含む走路パラメータとし、
    前記カルマンフィルタの時間更新式は、以下の式であるトラッキング装置。




    ただし、xは、前記状態を表す状態ベクトルであり、Fは状態ベクトルxの時間更新行列であり、Bは前記センサの出力ωから状態ベクトルxへの寄与項であり、Pは、誤差共分散行列であり、Qは、システムノイズの分散行列であり、E{}は、平均を表す関数である。
  2. センサ観測値に基づいて推定対象の状態の推定値をカルマンフィルタで求めるためのプログラムであって、
    コンピュータを、
    前記センサ観測値とは異なるセンサの出力であって、状態の時間更新の入力となる前記センサの出力についての予め定められた変動に対応する補正分をシステムノイズに加算した前記カルマンフィルタを用いて、前記センサ観測値と前記センサの出力とから、前記状態の推定値を求める推定部
    として機能させるためのプログラムであり、
    前記センサ観測値を、移動体が走行する走路の画像から検出された、前記移動体が走行する走行車線の境界の位置とし、
    前記センサの出力を、ヨーレイトセンサで検出されたヨーレイトとし、
    前記状態の推定値を、前記移動体に対する車線の横位置、ヨー角、及び設定距離分だけ前方の曲率を含む走路パラメータとし、
    前記カルマンフィルタの時間更新式は、以下の式であるプログラム。




    ただし、xは、前記状態を表す状態ベクトルであり、Fは状態ベクトルxの時間更新行列であり、Bは前記センサの出力ωから状態ベクトルxへの寄与項であり、Pは、誤差共分散行列であり、Qは、システムノイズの分散行列であり、E{}は、平均を表す関数である。
JP2016196626A 2016-10-04 2016-10-04 トラッキング装置及びプログラム Active JP6770393B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016196626A JP6770393B2 (ja) 2016-10-04 2016-10-04 トラッキング装置及びプログラム
US15/724,123 US20180137376A1 (en) 2016-10-04 2017-10-03 State estimating method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016196626A JP6770393B2 (ja) 2016-10-04 2016-10-04 トラッキング装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2018060326A JP2018060326A (ja) 2018-04-12
JP6770393B2 true JP6770393B2 (ja) 2020-10-14

Family

ID=61908538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016196626A Active JP6770393B2 (ja) 2016-10-04 2016-10-04 トラッキング装置及びプログラム

Country Status (2)

Country Link
US (1) US20180137376A1 (ja)
JP (1) JP6770393B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10875531B2 (en) * 2018-08-08 2020-12-29 Ford Global Technologies, Llc Vehicle lateral motion control
CN109684677A (zh) * 2018-12-04 2019-04-26 西安法士特汽车传动有限公司 一种基于卡尔曼滤波算法的坡度估算方法
JP2020135586A (ja) * 2019-02-22 2020-08-31 株式会社豊田中央研究所 周辺線分処理装置、走路推定装置、および周辺線分処理プログラム
KR102634443B1 (ko) * 2019-03-07 2024-02-05 에스케이텔레콤 주식회사 차량용 센서의 보정 정보 획득 장치 및 방법
CN110765608B (zh) * 2019-10-18 2023-05-12 西安工业大学 一种用于微机电系统传感器的高精度交互两级估计方法
JP7355227B2 (ja) 2020-03-31 2023-10-03 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、およびプログラム
EP4141736A4 (en) * 2020-04-28 2023-06-21 Huawei Technologies Co., Ltd. LANE KEEPING METHOD AND APPARATUS
CN112025706B (zh) * 2020-08-26 2022-01-04 北京市商汤科技开发有限公司 机器人的状态确定方法及装置、机器人及存储介质
CN112269201B (zh) * 2020-10-23 2024-04-16 北京云恒科技研究院有限公司 一种gnss/ins紧耦合时间分散滤波方法
CN113135193B (zh) * 2021-04-16 2024-02-13 阿波罗智联(北京)科技有限公司 输出预警信息的方法、设备、存储介质及程序产品
CN113933858A (zh) * 2021-09-28 2022-01-14 中国科学院深圳先进技术研究院 定位传感器的异常检测方法、装置及终端设备
CN113963025B (zh) * 2021-10-22 2022-08-16 西北工业大学深圳研究院 水下自适应机动目标快速跟踪及追踪方法
CN116872926A (zh) * 2023-08-16 2023-10-13 北京斯年智驾科技有限公司 一种自动驾驶车道保持方法、系统、装置及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005062984A2 (en) * 2003-12-24 2005-07-14 Automotive Systems Laboratory, Inc. Road curvature estimation system
JP4899626B2 (ja) * 2006-05-15 2012-03-21 トヨタ自動車株式会社 走行制御装置
US9090263B2 (en) * 2010-07-20 2015-07-28 GM Global Technology Operations LLC Lane fusion system using forward-view and rear-view cameras
JP2013125327A (ja) * 2011-12-13 2013-06-24 Toyota Motor Corp 曲率推定装置
JP5692044B2 (ja) * 2011-12-21 2015-04-01 トヨタ自動車株式会社 車両状態量推定装置、車両用操舵制御装置
JP5061264B1 (ja) * 2012-03-23 2012-10-31 国立大学法人 千葉大学 小型姿勢センサ
WO2014192368A1 (ja) * 2013-05-31 2014-12-04 日立オートモティブシステムズ株式会社 車両の制御装置及び車両の走行制御システム

Also Published As

Publication number Publication date
US20180137376A1 (en) 2018-05-17
JP2018060326A (ja) 2018-04-12

Similar Documents

Publication Publication Date Title
JP6770393B2 (ja) トラッキング装置及びプログラム
US10650253B2 (en) Method for estimating traffic lanes
JP4676373B2 (ja) 周辺認識装置、周辺認識方法、プログラム
JP6458651B2 (ja) 路面標示検出装置及び路面標示検出方法
JP6569280B2 (ja) 路面標示検出装置及び路面標示検出方法
JPWO2018061084A1 (ja) 自己位置推定方法及び自己位置推定装置
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
WO2019065970A1 (ja) 車両用外界認識装置
JP5530773B2 (ja) ステレオカメラによる平面検出方法とこの方法を用いた移動ロボット
WO2018225480A1 (ja) 位置推定装置
JP2020118575A (ja) 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム
JP6488226B2 (ja) 走路パラメータ推定装置及びプログラム
JP6477340B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP6370234B2 (ja) 地図データ生成装置、地図データ生成方法及び地図データ生成用コンピュータプログラムならびに車両位置検出装置
US7899212B2 (en) Image processing apparatus and image processing method
JP2018194417A (ja) 位置推定装置、移動装置
JP7134780B2 (ja) ステレオカメラ装置
JP2004038760A (ja) 車両用走行路認識装置
JP6992344B2 (ja) ランドマーク選定方法及びランドマーク選定装置
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
JP6451544B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP4013872B2 (ja) 障害物検出装置
JP6604052B2 (ja) 走路境界推定装置及び走路境界推定方法
WO2023095489A1 (ja) 外界認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250