JP6936098B2 - 対象物推定装置 - Google Patents

対象物推定装置 Download PDF

Info

Publication number
JP6936098B2
JP6936098B2 JP2017191563A JP2017191563A JP6936098B2 JP 6936098 B2 JP6936098 B2 JP 6936098B2 JP 2017191563 A JP2017191563 A JP 2017191563A JP 2017191563 A JP2017191563 A JP 2017191563A JP 6936098 B2 JP6936098 B2 JP 6936098B2
Authority
JP
Japan
Prior art keywords
road surface
pixel
reference image
parallax
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017191563A
Other languages
English (en)
Other versions
JP2019066302A (ja
Inventor
尚秀 内田
尚秀 内田
健 田邊
健 田邊
裕丈 石神
裕丈 石神
正樹 桑原
正樹 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2017191563A priority Critical patent/JP6936098B2/ja
Priority to DE102018123861.4A priority patent/DE102018123861A1/de
Priority to US16/145,346 priority patent/US10853666B2/en
Publication of JP2019066302A publication Critical patent/JP2019066302A/ja
Application granted granted Critical
Publication of JP6936098B2 publication Critical patent/JP6936098B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、車両前方を撮像した撮像画像中の対象物の位置及び速度を推定する対象物推定装置に関する。
従来から、車両前方に存在する対象物(典型的には、歩行者及び他車両等)の位置及び速度を推定し、推定された位置及び速度に基づいて、車両が当該対象物に衝突することを回避したり、衝突による衝撃を軽減したりする制御(衝突回避制御)を行う技術が知られている。
特許文献1には、ステレオカメラを用いて車両前方を撮像し、撮像画像中の対象物の3次元上の位置及び速度を推定する対象物推定装置(以下、「従来装置」と称する。)が開示されている。従来装置は、撮像画像中の各画素の視差を算出するとともに、1つのカメラから取得された時間的に前後する撮像画像を用いて各画素の位置の変化量(オプティカルフロー)を算出する。従来装置は、これらの視差及びオプティカルフローを入力としてカルマンフィルタを適用することにより、対象物の位置及び速度を推定する。
具体的には、従来装置は、位置及び速度の推定値を撮像画像中の画素毎に算出し、算出された推定値に基づいて複数の画素をグルーピングするか否かを判定する。グルーピングすると判定した場合、従来装置は、これら複数のグルーピングされた画素が1つの対象物に対応していると判定する。例えば、速度のばらつきが所定の速度範囲内である複数の画素が所定の距離範囲内に位置している場合、従来装置は、これら複数の画素が1つの対象物に対応していると判定する。これにより、従来装置は、対象物の位置及び速度を推定する。
特開2015−41238号公報
即ち、撮像画像中の各画素について位置及び速度の推定値を算出する時点では、各画素が対象物に対応している画素であるか否かは判明していない。このため、従来装置は撮像画像中のほぼ全ての画素に対して推定値を算出する必要があり、結果として演算負荷が高くなってしまうという問題がある。この問題は、ステレオカメラの解像度が高くなり画素数が多くなるほど顕著になる。
本発明は、上述した問題に対処するためになされたものである。即ち、本発明の目的の一つは、撮像画像中の対象物の位置及び速度を推定する対象物推定装置において、位置及び速度が推定されない対象物が発生すること(対象物の推定漏れ)を防ぎつつ、演算負荷を低減することが可能な技術を提供することにある。
本発明による対象物推定装置(以下、「本発明装置」と称する。)は、
車両に搭載されており、
ステレオカメラを用いて車両前方の領域を所定時間が経過する毎に撮像する撮像手段(11、ステップ502)と、
前記撮像手段(11)によって同じ演算タイミングで撮像された複数の撮像画像のうちの基準となる撮像画像である基準画像を基準として、前記複数の撮像画像において対応する画素同士の視差(d)を含む視差情報を、前記所定時間が経過する毎に前記基準画像中の各画素について算出する視差情報算出手段(ステップ504)と、
前記視差情報に基づいて前記基準画像中の路面領域(14)を前記所定時間が経過する毎に検出する路面領域検出手段(ステップ514)と、
前記基準画像中の各画素が前記路面領域(14)に対応する画素であるか否かを前記所定時間が経過する毎に判定する路面領域判定手段(ステップ516)と、
前回の演算タイミングにおける前記基準画像中の画素の位置から、今回の演算タイミングにおける前記基準画像中の前記画素に対応する画素の位置まで、の位置の変化量((u,v))を含む推移情報を、前記所定時間が経過する毎に前記基準画像中の各画素について算出する推移情報算出手段(ステップ518)と、
前記視差情報及び前記推移情報に基づいて、前記基準画像中の各画素の3次元空間における位置及び速度の推定値をフィルタを用いて前記所定時間が経過する毎に算出し、前記算出された推定値に基づいて対象物を推定することにより、対象物の位置及び速度を推定する推定値算出手段(ステップ520、524)と、を備える。
前記推定値算出手段は、
前記路面領域判定手段により前記基準画像中の画素が前記路面領域(14)に対応する画素であると判定された場合(ステップ516:Yes)、当該判定された画素については前記推定値を算出しない、
ように構成されている。
基準画像において路面領域として検出される領域には、対象物は存在していない。このため、路面領域に対応する画素の位置及び速度の推定値を算出しても、対象物の位置及び速度を推定することはできない。そこで、本発明装置は、基準画像中の路面領域を検出し、路面領域に対応する画素については推定値を算出しない。即ち、本発明装置は、基準画像中の路面領域以外の領域に対応する画素についてのみ推定値を算出する。このように、基準画像から「対象物が存在していないことが明らかである領域」を除外することにより、基準画像における推定値の算出範囲(画素数)を低減することができる。結果として、位置及び速度が推定されない対象物が発生すること(即ち、対象物の推定漏れ)を防ぎつつ、演算負荷を低減することが可能になる。
加えて、本発明装置の一側面では、
前記推移情報算出手段は、
前記路面領域判定手段により前記基準画像中の画素が前記路面領域に対応する画素であると判定された場合(ステップ516:Yes)、当該判定された画素については前記推移情報を算出しない、
ように構成されている。
この構成によれば、本発明装置は、基準画像中の路面領域以外の領域に対応する画素についてのみ推移情報を算出するため、基準画像中の画素の推定値を好適に算出しながら、演算負荷を更に低減することができる。
尚、上記説明においては、発明の理解を助けるために、実施形態に対応する発明の構成に対して、実施形態で用いた符号を括弧書きで添えているが、発明の各構成要件は前記符号によって規定される実施形態に限定されるものではない。
本発明の実施形態に係る対象物推定装置(以下、「実施装置」と称する。)及び実施装置に接続された衝突回避制御装置の概略構成図である。 視差投票マップの平面図である。 視差投票マップの斜視図である。 各ブロックに路面の属性又は路面以外の属性が設定された視差投票マップを示す図である。 基準画像における路面領域の検出結果を模式的に示す図である。 実施装置の対象物推定ECUのCPUが実行するルーチンを示すフローチャートである。
図1は、本発明の実施形態に係る対象物推定装置(以下、「実施装置」とも称する。)及び実施装置に接続された衝突回避制御装置の概略システム構成図である。以下では、実施装置が搭載された車両を「自車両」と称して他車両と区別する。実施装置は、車両前方を撮像した撮像画像中の対象物の位置及び速度を推定する。なお、対象物とは、典型的には歩行者及び他車両等を表す。
実施装置は、対象物推定ECU10と、対象物推定ECU10に接続されたカメラセンサ11及び車両状態センサ12と、を備える。対象物推定ECU10は、衝突回避制御装置13に接続されている。ECUは、「Electirc Control Unit」の略であり、マイクロコンピュータを主要部として備える。マイクロコンピュータは、CPUとROM及びRAM等の記憶装置とを含む。CPUはROMに格納されたインストラクション(プログラム、ルーチン)を実行することによって、各種機能を実現する。以下、対象物推定ECU10を、単に「ECU10」と称する。
カメラセンサ11は、自車両前方を撮像する車載ステレオカメラ装置(図示省略)を備える。車載ステレオカメラ装置は、自車両のルーフ前端部の車幅方向中央付近に設けられ、車両前後軸より左側に配置される左カメラと、車両前後軸より右側に配置される右カメラと、を有する。左カメラは所定時間が経過する毎に主として自車両の前方左側の領域を撮像し、撮像した左画像を表す左画像信号をECU10に出力する。同様に、右カメラは所定時間が経過する毎に主として自車両の前方右側の領域を撮像し、撮像した右画像を表す右画像信号をECU10に出力する。なお、左画像及び右画像が、「複数の撮像画像」の一例に相当する。
車両状態センサ12は、自車両の走行状態に関する車両状態情報を取得するセンサである。車両状態センサ12は、自車両の速度(即ち、車速)を検出する車速センサ、及び、自車両のヨーレートを検出するヨーレートセンサ等を含む。車両状態センサ12は、所定時間が経過する毎に車両状態情報(車速及びヨーレート)をECU10に出力する。
ECU10は、以下に述べる手順で、自車両前方に存在する路面領域を所定時間が経過する毎に(即ち、所定の演算周期毎に)検出する。即ち、まず、ECU10は、カメラセンサ11から出力された左右の画像信号によって表される左画像及び右画像のうち、右画像を基準として、対応する画素同士の視差dを含む視差情報を算出する(以下、右画像を「基準画像」とも称する。)。続いて、ECU10は、視差情報に基づいて視差画像を生成する。次に、ECU10は、視差画像を構成する各画素(以下、「視差点」とも称する。後述。)が、路面領域に対応する視差点(以下、「路面視差点」と称する。)であるか、路面領域以外の領域に対応する視差点であるかを推定する。続いて、ECU10は、車両状態センサ12から出力された車両状態情報に基づいて自車両が走行すると予想される走行予想経路を推定し、路面視差点の走行予想経路までの距離に応じて路面視差点に重み付けを行う。そして、ECU10は、重み付けが行われた路面視差点に基づいて、基準画像中の路面領域の検出を行う。
加えて、ECU10は、所定時間が経過する毎に、時間的に前後する2つの基準画像を用いて基準画像中の各画素の位置の変化量(以下、「オプティカルフロー」とも称する。)を含む推移情報を算出する。そして、ECU10は、所定時間が経過する毎に、基準画像中の各画素の視差及びオプティカルフローを入力としてカルマンフィルタを適用することにより、基準画像中の各画素の位置及び速度の推定値を算出し、これにより、対象物の位置及び速度を推定する。
ここで、ECU10は、「推移情報の算出」並びに「対象物の位置及び速度の推定」を行う前に、所定時間が経過する毎に、基準画像中の各画素が路面領域に対応した画素であるか否かを判定する。そして、ECU10は、路面領域以外の領域に対応した画素についてのみ、上述した手順で推移情報を算出し、対象物の位置及び速度を推定する。ECU10は、推定された対象物の位置及び速度を含む対象物情報を、対象物を特定するIDとともに衝突回避制御装置13に送信する。即ち、ECU10は対象物情報取得ECUと言うこともできる。
衝突回避制御装置13は、ECU10から送信される対象物情報、及び、車両状態センサ12からECU10を経由して送信される車速等に基づいて、衝突回避制御を実行するか否かを判定する。ここで、衝突回避制御は、自車両の前方に当該車両と衝突する可能性がある対象物が存在する場合、運転者に警報を発生する警報制御、自車両に自動的に制動力を付与する自動制動制御、及び/又は、自車両の操舵輪の転舵角を自動的に変更する自動操舵制御を実行する制御である。衝突回避制御装置13は、対象物情報を取得すると、対象物までの衝突予測時間(自車両が当該対象物に衝突するまでに要すると予測される時間)を対象物情報及び自車両の車速等から算出する。衝突回避制御装置13は、算出された衝突予測時間が所定の時間閾値以下のときは、自車両が対象物に衝突する可能性があると判定して、上述した衝突回避制御のうちの少なくとも1つの制御を実行する。一方、衝突回避制御装置13は、衝突予測時間が時間閾値を超えているときは、自車両が対象物に衝突する可能性は極めて低いと判定して、衝突回避制御を実行しない。
(作動の詳細)
次に、実施装置の作動の詳細について説明する。なお、以下で説明する視差画像の生成方法から路面領域の検出方法までは周知であるため、これらの方法については簡単な説明に留める。詳細については、特開2016−206776号公報(米国特許出願公開第2016305785号明細書)を参照されたい。
<視差画像の生成>
実施装置のECU10は、自車両の図示しないエンジンスイッチ(イグニッション・キー・スイッチ)がオン状態へと変更されてからオフ状態へと変更されるまでの期間(以下、「エンジンオン期間」とも称する。)、所定時間(演算周期)が経過する毎に、以下のようにして視差情報を算出する。即ち、ECU10は、カメラセンサ11から出力された左右の画像信号によって表される左画像及び右画像(基準画像)の対応する画素同士の視差dを含む視差情報を、基準画像を基準として算出する。ECU10は、基準画像中の全ての画素について、視差情報を算出する。ここで、「全ての画素」とは、基準画像において視差情報が算出可能な画素の全てを意味する。視差情報の算出には、例えば、Semi-Global Matchingの手法が用いられ得る。ECU10は、視差情報に基づいて視差画像を生成する。視差画像を構成する各画素(視差点)には視差情報が対応付けられている。ECU10は、生成された視差画像をそのRAMに格納する。
<路面視差点の推定>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、視差画像中の各視差点が路面視差点であるか、路面視差点以外の視差点であるかを推定する。以下、推定方法の一例を簡単に説明する。図2Aは視差投票マップ20の平面図を示し、図2Bは視差投票マップ20の斜視図を示す。視差投票マップ20は、そのRAMに予め設けられている。図2A及び図2Bに示すように、視差投票マップ20は、横方向の辺が視差画像の横方向(車幅方向)の位置に対応し、縦方向の辺が視差画像の縦方向の位置に対応し、奥行き方向の辺が視差の大きさに対応するように配列された複数の直方体形状のブロック22を備える。
ECU10は、視差投票マップ20の各ブロック22に、路面又は路面以外の属性を設定する。具体的には、ECU10は、視差画像中の各視差点を、視差点の位置(横方向の位置及び縦方向の位置)と視差dの大きさとに基づいて、視差投票マップ20の対応するブロック22に投票(分類)する。そして、ECU10は、視差投票マップ20の各ブロック22について、視差dの平均値、視差dの偏差、視差画像の縦方向における視差点の座標の平均値及び視差画像の縦方向における視差点の座標の偏差を算出する。
ECU10は、視差投票マップ20のブロック22内に、同程度の視差(距離)dを有する視差点が、視差画像の縦方向における狭い範囲に分布し、視差dが減少するにつれて(自車両からの距離が増大するにつれて)視差画像の縦方向における視差点の位置が滑らかに上昇している場合、当該視差点の集合は路面を示していると判定する。具体的には、視差点の縦方向における分布が所定の第1閾値未満であるという条件、及び、視差点の視差方向の分布が所定の第2閾値以上であるという条件を満たしている場合、図3に示すように、ECU10は、当該視差点が分類されているブロック22に路面の属性を設定する。以下では、路面の属性に設定されたブロック22を「路面ブロック22a」と称する。一方、視差点の分布が上記条件を満たさないブロック22には路面以外の属性を設定する。図3のブロック22のうち路面ブロック22a以外のブロックには路面以外の属性が設定される。
ECU10は、路面ブロック22aに分類された視差点を路面視差点として推定し、路面ブロック22a以外のブロック22に分類された視差点を路面視差点以外の視差点として推定する。ECU10は、視差画像中における路面視差点の座標をそのRAMに格納する。
<走行予想経路の推定>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、車両状態センサ12から出力された車両状態情報に基づいて自車両が走行すると予想される経路である走行予想経路を推定する。例えば、ECU10は、現在の車両状態(車速及びヨーレート)が継続すると仮定して走行予想経路を推定してもよいし、その他の車両状態(例えば、操舵輪の転舵角)を用いて走行予想経路を推定してもよい。ECU10は、推定された走行予想経路を表す情報をそのRAMに格納する。
<路面視差点への重み付け>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、走行予想経路を基準画像に投影する。ECU10は、路面視差点から走行予想経路までの横方向における距離に応じて、各路面視差点に重み付けを行う。路面視差点に付与される重みは、当該距離が短いほど大きくされる。ECU10は、各路面視差点に付与された重みを、対応する路面視差点に関連付けてそのRAMに格納する。
<路面領域の検出>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、重み付けされた路面視差点に基づいて図4に示すように基準画像中の路面領域14を検出する。本実施形態では、公知のV-disparity画像を用いて路面領域14を検出する。ECU10は、路面領域14を表す情報をそのRAMに格納する。走行予想経路に近い領域は、走行予想経路から遠い領域よりも、道路である可能性が高い。このため、走行予想経路に近い路面視差点の重みを、走行予想経路から遠い路面視差点の重みよりも大きくすることにより、走行予想経路に近い路面視差点が路面の検出に与える影響を相対的に大きくすることができ、路面領域を精度よく検出することができる
<路面領域判定>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、基準画像中の全ての画素に対して、画素が路面領域に対応する画素であるか否かを判定する。図4の例では、画素P1は路面領域14の範囲内に位置しており、画素P2は路面領域14の範囲外に位置している。このため、ECU10は、画素P1は路面領域14に対応する画素であると判定し、画素P2は路面領域14以外の領域に対応する画素であると判定する。ECU10は、この判定結果を各画素に関連付けてそのRAMに格納する。
<推移情報の算出>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、基準画像中の路面領域以外の領域に対応する全ての画素について、オプティカルフローを含む推移情報を算出する。なお、推移情報の算出方法、及び、後述する推定値の算出方法は周知であるため、これらの方法については簡単な説明に留める。詳細については、特開2015−41238号公報(米国特許出願公開第2016203376号明細書)を参照されたい。
オプティカルフローは、前回の演算タイミングにおける基準画像中の画素の位置から、今回の演算タイミングにおける基準画像中の上記画素に対応する画素の位置まで、の位置の変化量(u,v)である。uは基準画像中の画素の座標の横方向の変位を表し、vは基準画像中の画素の座標の縦方向の変位を表す。オプティカルフロー(u,v)は、例えば、濃度勾配法を用いて算出され得る。ECU10は、オプティカルフロー(u,v)を含む推移情報を各画素(路面領域以外の領域に対応する各画素)に関連付けてそのRAMに格納する。
<推定値の算出>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、基準画像中の路面領域以外の領域に対応する全ての画素について、画素の視差d(視差情報)及びオプティカルフロー(u,v)(推移情報)に基づいて、当該画素の3次元空間における位置(X,Y,Z)及び速度(V,V,V)の推定値を算出する。なお、3次元座標系の原点は、右カメラの光軸中心に設定される。以下、その算出方法について簡単に説明する。
以下の数1は、カルマンフィルタで使用されるプロセスモデルを示す。ここで、t(下付き文字)はt回目の演算タイミングであることを表し、Δtは演算周期を表す。加えて、Ψ’は以下の数2により定義される。なお、Ψ’の「’」は、式中の文字の上に付されたドットに替わるものである。更に、vは平均ゼロ、共分散行列Qの多変数正規分布に従う(以下の数3を参照)。
Figure 0006936098
Figure 0006936098
Figure 0006936098
以下の数4は、線形近似された観測モデルを示す。ここで、f及びfは、それぞれ基準画像の横方向及び縦方向の焦点距離[pix]を表し、Bはカメラセンサ11の左カメラと右カメラとの距離(光軸間距離)を表す。加えて、wは平均ゼロ、共分散行列Rの多変数正規分布に従う(以下の数5を参照)。

Figure 0006936098
Figure 0006936098
ECU10は、上記のプロセスモデル(数1)及び線形近似された観測モデル(数4)に基づいて、カルマンフィルタを実行する。具体的には、後述するプロセスモデルに基づく予測と、後述する観測モデルに基づく更新と、を、基準画像を基準として所定時間が経過する毎に繰り返す。これにより、ECU10は、基準画像中の各画素(路面領域以外の領域に対応する各画素)の位置及び速度の推定値を算出し、対象物の位置及び速度を推定する。なお、カルマンフィルタにより算出されるt回目の演算タイミングにおける推定値及び当該推定値の誤差の共分散行列は、それぞれ以下の数6及び数7のように表される。ここで、数7のxは、対象物の位置及び速度の真値を表す。
Figure 0006936098
Figure 0006936098
プロセスモデルに基づく予測は、以下の数8乃至数10に従って行われる。即ち、数8のように行列F(数1のプロセスモデルを参照)を定義すると、予測値及び予測値の誤差の共分散行列は、それぞれ数9及び数10のように表される。

Figure 0006936098
Figure 0006936098
Figure 0006936098
一方、観測モデルに基づく更新は、以下の数11乃至数16に従って行われる。即ち、数11のように行列J(数4の観測モデルを参照)を定義すると、観測値及び予測値の残差、残差の共分散行列、並びに、カルマンゲインは、それぞれ数12乃至数14のように表される。そして、推定値及び推定値の誤差の共分散行列は、それぞれ数15及び数16のように表される。

Figure 0006936098
Figure 0006936098
Figure 0006936098
Figure 0006936098
Figure 0006936098
Figure 0006936098
なお、ECU10のRAMには、これらの予測及び更新を実行するため、推定値の初期値及び推定値の誤差の共分散行列についての初期値が予め格納されている。
(実際の作動)
次に、ECU10の実際の作動について説明する。ECU10のCPUは、エンジンオン期間中、図5にフローチャートにより示したルーチンを所定時間(演算周期)が経過する毎に実行するようになっている。
CPUは、エンジンスイッチがオン状態へと変更されると、図5のステップ500から処理を開始して以下のステップ502乃至514の処理を順に行う。
ステップ502:CPUは、カメラセンサ11から左画像信号及び右画像信号を受信する。即ち、左画像及び右画像(基準画像)を含む撮像画像を取得する。
ステップ504:CPUは、左画像及び基準画像に基づいて、対応する画素同士の視差dを含む視差情報を算出し、視差情報に基づいて視差画像を生成する。
ステップ506:CPUは、視差画像中の各視差点が路面視差点であるか、路面視差点以外の視差点であるかを推定する。
ステップ508:CPUは、車両状態センサ12から車両状態情報(車速及びヨーレート)を取得する。
ステップ510:CPUは、車両状態情報に基づいて自車両の走行予想経路を推定する。
ステップ512:CPUは、路面視差点の走行予想経路までの距離に応じて、各路面視差点への重み付けを行う。
ステップ514:CPUは、重み付けされた路面視差点に基づいて、公知のV-disparity画像を用いて基準画像中の路面領域を検出する。
ステップ514の処理を終了すると、CPUはステップ516に進む。ステップ516では、CPUは、基準画像中のある画素(以下、「対象画素」とも称する。)について、対象画素が路面領域に対応した画素であるか否かを判定する。対象画素が路面領域に対応した画素ではない(即ち、対象画素は路面領域以外の領域に対応した画素である)と判定した場合、CPUは、ステップ516にて「No」と判定し、以下のステップ518及びステップ520の処理を実行する。
ステップ518:CPUは、対象画素のオプティカルフロー(u,v)を含む推移情報を算出する。
ステップ520:CPUは、対象画素の視差d及びオプティカルフロー(u,v)を入力としてカルマンフィルタを適用することにより、当該対象画素の位置及び速度の推定値を算出する。
これに対し、ステップ516にて対象画素が路面領域に対応した画素であると判定した場合、CPUは、ステップ516にて「Yes」と判定する。
ステップ520の処理を終了した場合、又は、ステップ516にて「Yes」と判定した場合、CPUは、ステップ522に進む。ステップ522では、CPUは、ステップ516以降の処理が、基準画像中の全ての画素について実施されたか否かを判定する。上記処理が全ての画素についてはまだ実施されていないと判定した場合、CPUは、ステップ522にて「No」と判定してステップ516に戻り、基準画像中の残りの画素に対してステップ516以降の処理を繰り返す。一方、上記処理が基準画像中の全ての画素について実施されたと判定した場合、CPUは、ステップ522にて「Yes」と判定し、以下のステップ524の処理を行う。
ステップ524:CPUは、基準画像中の各画素(路面領域以外の領域に対応する各画素)の位置及び速度の推定値に基づいて、対象物の位置及び速度を推定する。例えば、速度のばらつきが所定の速度範囲内である複数の画素が所定の距離範囲内に位置している場合、CPUは、これら複数の画素が1つの対象物に対応していると判定して、当該対象物の位置及び速度を推定する。その後、CPUは、ステップ526に進み本ルーチンを一旦終了する。
実施装置の作用効果について説明する。基準画像において路面領域として検出される領域には、対象物は存在していない。このため、路面領域に対応する画素の位置及び速度の推定値を算出しても、対象物の位置及び速度を推定することはできない。実施装置は、この点に着目し、基準画像中の路面領域を検出し、路面領域に対応する画素については推定値を算出しない構成(別言すれば、基準画像中の路面領域以外の領域に対応する画素についてのみ推定値を算出する構成)を採用している。このように、基準画像から「対象物が存在していないことが明らかである領域」を除外することにより、基準画像における推定値の算出範囲(画素数)を低減することができる。結果として、位置及び速度が推定されない対象物が発生すること(即ち、対象物の推定漏れ)を防ぎつつ、演算負荷を低減することが可能になる。
本実施形態では、推移情報は、基準画像中の画素の位置及び速度の推定値を算出するためにしか使用されない。実施装置は、この点に着目し、基準画像において路面領域に対応する画素については推移情報を算出しない構成(別言すれば、基準画像中の路面領域以外の領域に対応する画素についてのみ推移情報を算出する構成)を採用している。このため、基準画像中の画素の推定値を好適に算出しながら、演算負荷を更に低減することができる。
以上、本発明の実施形態に係る車両制御装置について説明したが、本発明はこれらに限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
例えば、上記の実施形態では、推移情報は、基準画像中の路面領域以外の領域に対応する画素についてのみ算出される。しかしながら、推移情報は基準画像中の全ての画素について算出されてもよい。ここで、「全ての画素」とは、基準画像において推移情報が算出可能な画素の全てを意味する。
加えて、左画像が基準画像に設定されてもよい。
更に、上記の実施形態では、路面を検出するに際し、自車両の走行予想経路を推定し、路面視差点の走行予想経路までの距離に応じて各路面視差点に重み付けを行うが、この構成に限られない。例えば、路面視差点に重み付けを行わずに路面を検出してもよい。この場合、走行予想経路が推定される必要がないため、その分だけ演算負荷を低減することができる。
加えて、カルマンフィルタの代わりに、以下のフィルタ、即ち、移動平均フィルタ、α-βフィルタ、又はパーティクルフィルタ等が用いられてもよい。
10:対象物推定ECU、11:カメラセンサ、12:車両状態センサ、13:衝突回避制御装置、14:路面領域、20:視差投票マップ、22:ブロック、22a:路面ブロック



Claims (2)

  1. 車両に搭載された対象物推定装置であって、
    ステレオカメラを用いて車両前方の領域を所定時間が経過する毎に撮像する撮像手段と、
    前記撮像手段によって同じ演算タイミングで撮像された複数の撮像画像のうちの基準となる撮像画像である基準画像を基準として、前記複数の撮像画像において対応する画素同士の視差を含む視差情報を、前記所定時間が経過する毎に前記基準画像中の各画素について算出する視差情報算出手段と、
    前記視差情報に基づいて前記基準画像中の路面領域を前記所定時間が経過する毎に検出する路面領域検出手段と、
    前記基準画像中の各画素が前記路面領域に対応する画素であるか否かを前記所定時間が経過する毎に判定する路面領域判定手段と、
    前回の演算タイミングにおける前記基準画像中の画素の位置から、今回の演算タイミングにおける前記基準画像中の前記画素に対応する画素の位置まで、の位置の変化量を含む推移情報を、前記所定時間が経過する毎に前記基準画像中の各画素について算出する推移情報算出手段と、
    前記視差情報及び前記推移情報に基づいて、前記基準画像中の各画素の3次元空間における位置及び速度の推定値をフィルタを用いて前記所定時間が経過する毎に算出し、前記算出された推定値に基づいて対象物を推定することにより、対象物の位置及び速度を推定する推定値算出手段と、を備え、
    前記推定値算出手段は、
    前記路面領域判定手段により前記基準画像中の画素が前記路面領域に対応する画素であると判定された場合、当該判定された画素については前記推定値を算出しない、
    ように構成された、
    対象物推定装置。
  2. 請求項1に記載の対象物推定装置であって、
    前記推移情報算出手段は、
    前記路面領域判定手段により前記基準画像中の画素が前記路面領域に対応する画素であると判定された場合、当該判定された画素については前記推移情報を算出しない、
    ように構成された、
    対象物推定装置。
JP2017191563A 2017-09-29 2017-09-29 対象物推定装置 Active JP6936098B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017191563A JP6936098B2 (ja) 2017-09-29 2017-09-29 対象物推定装置
DE102018123861.4A DE102018123861A1 (de) 2017-09-29 2018-09-27 Zielobjektschätzvorrichtung
US16/145,346 US10853666B2 (en) 2017-09-29 2018-09-28 Target object estimating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017191563A JP6936098B2 (ja) 2017-09-29 2017-09-29 対象物推定装置

Publications (2)

Publication Number Publication Date
JP2019066302A JP2019066302A (ja) 2019-04-25
JP6936098B2 true JP6936098B2 (ja) 2021-09-15

Family

ID=65728099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017191563A Active JP6936098B2 (ja) 2017-09-29 2017-09-29 対象物推定装置

Country Status (3)

Country Link
US (1) US10853666B2 (ja)
JP (1) JP6936098B2 (ja)
DE (1) DE102018123861A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7425045B2 (ja) 2019-03-29 2024-01-30 テルモ株式会社 薬液投与装置
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
US11494865B2 (en) * 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
CN111596086B (zh) * 2020-05-15 2022-10-11 北京百度网讯科技有限公司 一种自动驾驶中障碍物的速度估计方法、装置和电子设备
US20230032998A1 (en) * 2021-07-30 2023-02-02 Magna Electronics Inc. Vehicular object detection and door opening warning system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
JP2001101415A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 画像認識装置および画像処理装置
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
EP1167120B1 (en) * 2000-06-30 2014-08-27 Panasonic Corporation Rendering device for parking aid
US6636148B2 (en) * 2000-09-04 2003-10-21 Fujitsu Ten Limited Periphery monitoring system
JP3897337B2 (ja) * 2002-02-08 2007-03-22 株式会社東芝 路肩検出装置及び方法
JP2005214914A (ja) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd 移動速度検出装置および移動速度検出方法
WO2006074298A2 (en) * 2005-01-06 2006-07-13 Alan Shulman Navigation and inspection system
JP4341564B2 (ja) * 2005-02-25 2009-10-07 株式会社豊田中央研究所 対象物判定装置
CN101167085B (zh) * 2005-04-18 2011-11-23 英特尔公司 通过跟踪行人从视频序列进行三维道路布局估计
JP4632987B2 (ja) * 2006-03-28 2011-02-16 株式会社パスコ 道路画像解析装置及び道路画像解析方法
JP5109691B2 (ja) * 2008-01-31 2012-12-26 コニカミノルタホールディングス株式会社 解析装置
JP2010055340A (ja) * 2008-08-28 2010-03-11 Hirosaki Univ 走行路推定装置及びプログラム
JP5325765B2 (ja) * 2009-12-28 2013-10-23 日立オートモティブシステムズ株式会社 路肩検出装置及び路肩検出装置を用いた車両
JP6110256B2 (ja) * 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
US10318823B2 (en) * 2013-10-14 2019-06-11 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
JP6160634B2 (ja) * 2015-02-09 2017-07-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
JP6350374B2 (ja) * 2015-04-17 2018-07-04 トヨタ自動車株式会社 路面検出装置
JP2016206774A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP6453192B2 (ja) * 2015-09-25 2019-01-16 日立オートモティブシステムズ株式会社 画像認識処理装置、及びプログラム
JP6657789B2 (ja) * 2015-10-29 2020-03-04 株式会社リコー 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム
US10139827B2 (en) * 2016-06-28 2018-11-27 Ford Global Technologies, Llc Detecting physical threats approaching a vehicle

Also Published As

Publication number Publication date
JP2019066302A (ja) 2019-04-25
US20190102633A1 (en) 2019-04-04
US10853666B2 (en) 2020-12-01
DE102018123861A1 (de) 2019-04-04

Similar Documents

Publication Publication Date Title
JP6936098B2 (ja) 対象物推定装置
JP5089545B2 (ja) 道路境界検出判断装置
US9912933B2 (en) Road surface detection device and road surface detection system
JP6372228B2 (ja) 衝突予想時間算出装置
KR20180060784A (ko) 비정상 객체 판단 방법 및 장치
JP6003673B2 (ja) 3次元位置推定装置、車両制御装置、および3次元位置推定方法
JP2013190421A (ja) 車両において通行物体位置検出を向上する方法
RU2626424C1 (ru) Устройство оценки позиции и угла пространственной ориентации транспортного средства и способ оценки позиции и угла пространственной ориентации транспортного средства
JP2017138660A (ja) 物体検出方法、物体検出装置、およびプログラム
JP2019067116A (ja) 立体物接地判定装置
JP6849569B2 (ja) 路面検出装置
JP6115429B2 (ja) 自車位置認識装置
JP6169949B2 (ja) 画像処理装置
JP7071154B2 (ja) 道路境界検出装置
JP4502733B2 (ja) 障害物測定方法及び障害物測定装置
KR101618501B1 (ko) 자차량의 에고 모션 추정방법
JP6690510B2 (ja) 物体認識装置
CN111989541B (zh) 立体摄像机装置
JP6488226B2 (ja) 走路パラメータ推定装置及びプログラム
JP4768499B2 (ja) 車載周辺他車検出装置
JP6259239B2 (ja) 車両用白線認識装置
JP2004038760A (ja) 車両用走行路認識装置
JP5472137B2 (ja) 境界検出装置、および境界検出プログラム
EP3716137A1 (en) Systems and methods for estimating the position of a target vehicle
EP3540643A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R151 Written notification of patent or utility model registration

Ref document number: 6936098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151