JP6110256B2 - 対象物推定装置および対象物推定方法 - Google Patents

対象物推定装置および対象物推定方法 Download PDF

Info

Publication number
JP6110256B2
JP6110256B2 JP2013171774A JP2013171774A JP6110256B2 JP 6110256 B2 JP6110256 B2 JP 6110256B2 JP 2013171774 A JP2013171774 A JP 2013171774A JP 2013171774 A JP2013171774 A JP 2013171774A JP 6110256 B2 JP6110256 B2 JP 6110256B2
Authority
JP
Japan
Prior art keywords
value
acquired
transition information
information
estimated value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013171774A
Other languages
English (en)
Other versions
JP2015041238A (ja
Inventor
裕丈 石神
裕丈 石神
白井 孝昌
孝昌 白井
利之 松原
利之 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2013171774A priority Critical patent/JP6110256B2/ja
Priority to US14/912,885 priority patent/US9767367B2/en
Priority to DE112014003818.0T priority patent/DE112014003818T5/de
Priority to PCT/JP2014/071800 priority patent/WO2015025897A1/ja
Priority to CN201480046274.2A priority patent/CN105474265B/zh
Publication of JP2015041238A publication Critical patent/JP2015041238A/ja
Application granted granted Critical
Publication of JP6110256B2 publication Critical patent/JP6110256B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、対象物を撮影した画像から当該対象物の位置および速度を推定する対象物推定装置および対象物推定方法に関するものである。
例えば、自動車等の車両に搭載したカメラにより車両の前方を撮影して、撮影された画像から歩行者や他の車両等の対象物を検出する検出装置が各種提案されている(特許文献1,非特許文献1参照)。このような検出装置では、対象物を検出して、車両(カメラ)から対象物までの距離および対象物の動き(速度)を測定(推定)する。
このような対象物の位置および速度を把握することで、当該対象物が車両にとって危険であるか否か判定することが可能となる。そして、対象物が車両にとって危険となり得る場合には、ドライバーにその旨を警告したり、ブレーキを自動制御したりして、ドライバーの運転を支援することが可能となる。
非特許文献1には、2つのカメラで撮影した画像から対象物の3次元上の位置および速度を推定する方法が開示されている。具体的には、非特許文献1の方法では、両カメラで撮影した2つの画像から画素毎に視差が求められる。また、一方のカメラで取得された連続するフレーム画像から画素毎の推移(オプティカルフロー)が算出される。そして、これらの視差およびオプティカルフローを入力として、カルマンフィルタにより対象物の現在の位置および速度を推定する。
国際公開第2006/081906号公報
クレメンス・ラーベ(Clemens Rabe)、ウェ・フランケ(Uwe Franke)、およびステファン・ギリグ(Stefan Gehrig)著、「複雑な背景における移動体の高速検出」(Fast detection of moving objects in complex scenarios)、インテリジェント自動車シンポジウム,2007IEEE(Intelligent Vehicles Symposium, 2007 IEEE)、(イスタンブール)、2007年6月13日、p. 398−403
ところで、カメラで撮影した映像から取得される視差やオプティカルフローは、カメラの解像度に起因する誤差や、対象物を誤って追跡(トラッキングエラー)することによる誤差等が不可避的に生ずる。そして、このような誤差(異常値)を含んだ視差やオプティカルフローが入力されると、算出される対象物の推定値も誤差を含んだものとなる。
すなわち、視差やオプティカルフローの入力値が異常値である場合に、フィルタで算出された推定値を適切に補正して、対象物の状態(位置・速度)を高い精度で推定し得る装置はこれまで提供されていなかった。
そこで、本発明は、上記課題を解決するためになされたものであって、その目的は、視差情報および推移情報に異常値が検出された場合に推定値を適切に補正して、対象物の位置および速度を精度よく推定し得る対象物推定装置および対象物推定方法を提供することにある。
請求項1の発明では、
画像取得手段が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定装置であって、
前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段と、
前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段と、
前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段と、
前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段と、
前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段とを備え、
前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正することを特徴とする。
請求項1の発明によれば、判定手段は、推移情報および視差情報がそれぞれ異常値であるか否か判定する。そして、補正手段は、判定手段の判定結果に基づいて、推定値取得手段が取得した推定値を補正する。従って、推移情報や視差情報が異常値の場合に、推定値取得手段が取得した誤差を含む推定値が補正されて、対象物の位置および速度を精度よく推定することができる。
ここで、補正手段は、判定手段が推移情報を異常値であると判定した場合と、視差情報を異常値であると判定した場合とで、推定値を補正する方法を変更する。すなわち、異常値が生じた入力値(推移情報,視差情報)の種類に応じて推定値を適切に補正することで、対象物の状態をより正確に推定することができる。
請求項2の発明では、前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に、前記フィルタを初期状態にリセットすることを特徴とする。
推移情報取得手段は、基準画像の時間的に前後するフレームから推移情報を取得する。すなわち、推移情報は、過去に取得した推移情報に依存して取得されることになる。従って、一旦、推移情報が異常値(トラッキングエラー)となると、以降のフレームで取得される推移情報は、当該異常値の推移情報の影響を受けて大きな誤差を含むことになる。
そこで、請求項2の発明では、補正手段は、推移情報が異常値である場合に、推定値取得手段が取得した推定値を無効値とすると共に、フィルタを初期状態にリセットする。すなわち、推移情報が異常値であると判定された画素については、当該フレームにおいて推定を中止する。これにより、トラッキングエラーが生じた画素を同一の対象物として推定するのを防止して、対象物推定装置の信頼性を高めることができる。しかも、フィルタが初期状態にリセットされることで、異常値が生じた画素についての追跡が新たに開始され、当該画素についての推定値を得ることができる。
請求項3の発明では、前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を当該推定値取得手段が取得した前記予測値の値に補正することを特徴とする。
視差情報取得手段は、同一フレームにおける複数の画像から視差情報を取得する。すなわち、視差情報は、時間的に独立して算出されるから、過去の視差情報が以後に算出される視差情報に影響を与えることはない。従って、視差情報の異常値についても、フレーム毎に独立して発生することになる。
そこで、請求項3の発明では、視差情報が異常値である場合に、補正手段は、推定値取得手段が取得した推定値を予測値に補正する。すなわち、異常値である視差情報を用いて取得された誤差を含む推定値を予測値に変更することで、当該フレームでの推定値の誤差を小さくすることができる。
そして、視差情報が異常値である場合、補正手段は、フィルタを初期状態にリセットすることなく、以後のフレームで当該画素についての推定を継続させる。すなわち、視差情報に異常値が生じた場合は、当該フレームでの視差情報を予測値に設定すると共に、以後のフレームで当該画素についての推定を継続させることができる。
実施形態に係る対象物推定装置が搭載された自動車のシステム構成を示すブロック図。 実施形態に係る対象物推定装置が対象物を推定する状態を示す概念図。 (a)は対象物としての他車両が撮影された画像を示す図、(b)は視差情報を示す図、(c)は推移情報を示す図。 推移情報に異常値が生じて推定値を補正する場合を説明した図。 視差情報に異常値が生じて推定値を補正する場合を説明した図。 実施形態に係る対象物推定方法により対象物の状態推定をする際の制御フローを示すフローチャート。 実験例の実験条件を示す図。 実験例の実験結果を示すグラフ。
次に、実施形態に係る対象物推定装置および対象物推定方法について説明する。実施形態では、車両としての自動車(普通乗用車)に対象物推定装置を搭載した場合で説明する。
[実施形態]
図1は、本実施形態に係る対象物推定装置10が搭載された自動車のシステム構成を示すブロック図であって、対象物推定装置10は、画像取得部12(画像取得手段)および車両情報取得部14に電気的に接続されている。そして、対象物推定装置10は、画像取得部12および車両情報取得部14からの入力に基づいて、画像取得部12で撮影された対象物(例えば、他の車両や歩行者)の状態(位置および速度)を推定する。
なお、対象物推定装置10は、図示しない運転支援装置に電気的に接続され、対象物推定装置10で得られた対象物の推定値が運転支援装置に出力される。運転支援装置では、入力された推定値を用いて、例えばドライバーに対象物の存在を警告したり、ブレーキを自動制御したりして、ドライバーの運転を支援する。
(画像取得部について)
画像取得部12は、例えば自動車のフロントガラス(ウインドシールドガラス)(図示せず)の車両室側に取り付けられ、自動車の進行方向の前方を撮影する。本実施形態の画像取得部12は、左右(自動車の進行方向に対し垂直な水平方向)に離間する一対のカメラ16,18を備えたステレオカメラである。なお、以下の説明では、左側のカメラを第1カメラ16(第1撮影手段)、右側のカメラを第2カメラ18(第2撮影手段)とそれぞれ指称する。
第1カメラ16および第2カメラ18は、同一時刻にフレームが撮影されるよう撮影タイミングの同期が図られている。第1カメラ16および第2カメラ18は、互いに異なる位置から自動車の走行方向の前方を撮影して、それぞれ第1の画像(基準画像)および第2の画像を取得する。
(車両情報取得部について)
車両情報取得部14は、自動車の走行状態を検出するものであって、自動車のヨーレートを検出するヨーレートセンサ20および自動車の車速(走行速度)を検出する車速センサ22を備えている。車両情報取得部14で取得されたヨーレートおよび車速は、対象物推定装置10の後述する推定値取得部26に出力する。
(対象物推定装置について)
図1に示すように、対象物推定装置10は、入力値取得部24および推定値取得部26を基本構成としている。
(入力値取得部について)
入力値取得部24は、推移情報算出部28(推移情報取得手段)および視差情報算出部30(視差情報取得手段)を備えている。入力値取得部24は、画像取得部12が取得した第1の画像および第2の画像に基づいて、推定値取得部26に入力する入力値(後述する視差情報および推移情報)を取得する。
推移情報算出部28は、第1カメラ16に電気的に接続され、第1カメラ16で取得された第1の画像が入力される。また、推移情報算出部28は、RAM等の書き換え可能な記憶部(図示せず)を備え、1フレーム前の第1の画像を記憶部に随時記憶および更新する。
推移情報算出部28は、現在のフレームの第1の画像と記憶部に記憶された1フレーム前の第1の画像(時間的に前後するフレーム)から対応する画素の位置の時間的な推移情報(オプティカルフロー)を取得する。
実施形態では、推移情報は、第1カメラ16の光軸中心を原点として、当該画素の横方向(x方向)の位置成分uと、当該画素の縦方向(y方向)の位置成分vとして定義される。
なお、推移情報算出部28が推移情報(u,v)を算出する際には、例えば濃度勾配法や、Horn−Schunckの方法(B.K. P. Horn and B.G. Schunck, Determining Optical Flow, AI(17), No. 1-3, 1981, pp. 185-203)等、公知の手法が用いられる。
視差情報算出部30は、第1カメラ16および第2カメラ18の双方に電気的に接続され、両カメラ16,18で取得された第1の画像および第2の画像がそれぞれ入力される。視差情報算出部30は、入力された第1の画像および第2の画像に基づいて、画素毎に視差(視差情報d)を算出する。
具体的には、第1の画像の各画素と、第2の画像の対応する各画素について、例えばSemi−Global Matchingによる画像処理によって視差情報dを算出する。本実施形態では、視差情報算出部30は、第1の画像を基準として視差情報dを算出するよう設定されている。すなわち、視差情報dは、第1カメラ16の光軸中心を原点とする当該画素の奥行き位置(第1カメラ16から対象物までの距離)と一意に対応付けられる。なお、各画素のフレーム間のトラッキングは、推移情報算出部28が算出する推移情報(u,v)(すなわち、オプティカルフロー)に基づいて行われる。
推移情報算出部28で算出された推移情報(u,v)および視差情報算出部30で算出された視差情報dは、推定値取得部26に出力される。
図1に示すように、推定値取得部26は、算出部32(推定値取得手段)、判定部34(判定手段)、および補正部36(補正手段)を備えている。
算出部32は、推移情報(u,v)および視差情報dを入力値とし、所定のプロセスモデルおよび観測モデルを持つカルマンフィルタ(Kalman Filter)を実行することで、対象物の位置および速度の推定値を算出する。なお、本実施形態では、算出部32は、第1の画像を基準として推定値を算出する。
ここで、算出部32は、計算量を抑制するため、第1の画像の全ての画素について推定値を算出するのではなく、例えば第1の画像の周縁部を除く所定範囲について算出するように設定されている。
図2は、対象物推定装置10が対象物の状態を推定する際の概念図を示す。座標系は、第1カメラ16の光軸中心を原点として図2に示すように設定され、算出部32が対象物の位置(X,Y,Z)および速度(V,V,V)を推定する。算出部32には、数1に示すように、対象物の位置および速度を等速直線運動でモデル化するプロセスモデルが設定されている。
Figure 0006110256
Figure 0006110256
ここで、vは、平均ゼロ、共分散行列Qの多変数正規分布に従う。
Figure 0006110256
なお、車速は、車速センサ22での検出値、ヨーレートは、ヨーレートセンサ20での検出値である。
また、算出部32には、数4に示すように、視差情報dおよび推移情報(u,v)と、対象物の位置(X,Y,Z)および速度(Vx,Vy,Vz)との関係を規定する観測モデルが設定されている。
Figure 0006110256
ここで、Hは、3D→2D射影変換行列である。第1の画像の横方向の焦点距離をfx[pix]、縦方向の焦点距離をfy[pix]、第1カメラ16および第2カメラ18の基線長(光軸間距離)をBとすると、Hは数5の式のように表される。
Figure 0006110256
これを数4の式に代入する。
Figure 0006110256
数6の式は、非線形な関数であるため、このままでは、カルマンフィルタを適用できない。そこで、数6の式を線形近似するため、数7の式に示すように、時刻t(tフレーム)における対象物の位置の予測値(プロセスモデルから算出)の周りでテイラー展開して1次の項までを採用する。
Figure 0006110256
数7の式を整理すると、
Figure 0006110256
となる。ここで、wは平均ゼロ、共分散行列Rの多変数正規分布に従う。
Figure 0006110256
算出部32は、上記のプロセスモデルおよび観測モデルに基づいて、カルマンフィルタを実行する。すなわち、算出部32は、以下に示すように、プロセスモデルに基づく予測(数12〜数14)および観測モデルに基づく更新(数15〜数20)を、第1の画像を基準としてフレーム毎に繰り返す。これにより、算出部32は、対象物の状態(位置・速度)を推定する。カルマンフィルタのtフレームでの推定値および当該推定値の誤差の共分散行列を、それぞれ数10および数11に示す。
Figure 0006110256
Figure 0006110256
数11のxは、対象物の状態(位置・速度)の真値を表す。
[予測]
Figure 0006110256
Figure 0006110256
Figure 0006110256
[更新]
Figure 0006110256
Figure 0006110256
Figure 0006110256
Figure 0006110256
Figure 0006110256
Figure 0006110256
算出部32には、上記予測および更新を実行するため、推定値の初期値(数21)および推定値の誤差の共分散行列についての初期値(数22)が予め設定されている。
Figure 0006110256
Figure 0006110256
これらの初期値は、カルマンフィルタを実行するモデルや条件に合わせて、適当な定数を設定したり、シミュレーションや実験等で求めた値を採用したりすることができる。
判定部34は、推移情報算出部28で算出された推移情報(u,v)および視差情報算出部30で算出された視差情報dが異常値であるか否か判定する。以下、推移情報(u,v)および視差情報dの異常値が発生する場合について、具体例を挙げて説明する。
図3(a)に示すように、対象物推定装置10が搭載された自動車の走行方向の前方を走行する自動車(以下、他車両38と称する)を対象物とし、対象物推定装置10による状態推定を行う場合を想定する。図3(b)は、視差情報算出部30が算出したt−1フレーム、tフレーム、t+1フレームでの視差情報dを表している。
図3(b)の各フレームに付した円形の囲み線は、正常にトラッキング(すなわち、適正に推移情報が算出)された画素(追跡点)を示している。図3(b)から分かるように、囲み線内の画素は対象物の同一箇所であるのに拘らず、t−1フレームからtフレームにかけて、当該画素での視差情報dが変化している。また、t+1フレームでは、視差情報dが修正されているのが分かる。すなわち、tフレームにおいて視差情報算出部30が算出した囲み線内の画素の視差情報dは、真値からズレた異常値(外れ値)となっている。
このような異常値は、第1の画像および第2の画像に含まれるノイズの影響や、各画像を有限の画素で区画していることに伴い発生する誤差等に起因する。一方、t+1フレームで視差情報dが修正されているのは、視差情報算出部30がフレーム毎に視差情報dを独立して算出することに起因する。すなわち、視差情報算出部30は、過去に算出した視差情報dに依存することなく視差情報dを算出するため、一旦、視差情報dに異常値が生じたとしても、t+1フレームで適正な視差情報dが算出されたからである。
図3(c)は、推移情報算出部28が算出したt’−1フレーム、t’フレーム、t’+1フレームでの推移情報(u,v)を表している。t’フレームでの囲み線を付した箇所では、追跡点が他車両38から他車両38以外の風景(側壁)や別の車両40に移ってしまった箇所を示す。すなわち、t’フレームの囲み線を付した画素について推移情報算出部28が算出した推移情報(u,v)は、異常値(外れ値)となっている。このような、推移情報(u,v)の異常値は、主としてパターンマッチングのエラーによって生じる。
ここで、t’+1フレームでは、他車両38から外れた追跡点がそのままトラッキングされている。すなわち、一旦、推移情報(u,v)に異常値が発生すると、追跡点が修正されることはない(他車両38上の追跡点に復帰することはない)。これは、推移情報(u,v)(オプティカルフロー)が時間的に前後するフレーム間に亘って算出されて、過去に算出した推移情報(u,v)に依存することに起因する。
上述のように、推移情報算出部28が算出した推移情報(u,v)や、視差情報算出部30が算出した視差情報dは、エラーによる異常値である可能性がある。そこで、判定部34は、推移情報(u,d)および視差情報dと算出部32が算出した予測値(数13)との差に基づいて、推移情報(u,v)および視差情報dが異常値であるか否か判定する。
具体的には、判定部34は、推移情報算出部28が算出した推移情報(u,v)と、算出部32が算出した予測値から得られ、推移情報(u,v)に対応する予測推移情報との差に基づいて、当該推移情報(u,v)が異常値であるか否か判定する。また、判定部34は、視差情報算出部30が算出した視差情報dと、算出部32が算出した予測値から得られ、視差情報dに対応する予測視差情報との差に基づいて、当該視差情報dが異常値であるか否か判定する。
すなわち、判定部34は、算出部32がカルマンフィルタを更新する際に算出する観測値および予測値の残差(数16)を用いる。
Figure 0006110256
そして、推移情報と予測情報との差および視差情報と予測視差情報との差が、それぞれ所定の閾値Th,Th,Thよりも大きい場合に、判定部34は観測値(視差情報d、推移情報(u,d))がそれぞれ異常値であると判定する。
Figure 0006110256
Figure 0006110256
Figure 0006110256
すなわち、数24または数25の式の少なくとも1つを満たす場合、判定部34は、推移情報(u,v)が異常値であると判定する。また、数26を満たす場合、判定部34は、視差情報dが異常値であると判定する。この閾値Th,Th,Thとしては、シミュレーションや実験等で得られた固定値が採用される。
但し、閾値としては、必ずしも固定値とする必要はない。例えば、遠方の対象物の視差情報dは、撮影された画像のノイズ等が大きく影響し、算出される視差情報dの誤差も大きくなり易くなる。その結果、固定の閾値を採用した場合には、判定部34が視差情報dを常に異常値であると判定してしまう虞がある。
そこで、観測値および予測値のばらつきを考慮した判定を実施するため、固定値としての閾値に代えて、変数としての閾値を用いてもよい。
すなわち、数17に示す残差の共分散行列であるSの要素を用いて、閾値を調整(変動)してもよい。
Figure 0006110256
そして、以下の場合に、判定部34は観測値が異常値であると判定する。
Figure 0006110256
Figure 0006110256
Figure 0006110256
すなわち、数28または数29の式の少なくとも1つを満たす場合、判定部34は、推移情報(u,v)が異常値であると判定する。また、数30を満たす場合、判定部34は、視差情報dが異常値であると判定する。
補正部36は、判定部34が観測値の何れかが異常値である場合、算出部32が算出した推定値を補正する。一方、観測値が異常値ではない場合、補正部36は、算出部32で算出された推定値を補正することはない。
ここで、補正部36は、推移情報(u,v)が異常値であると判定された場合と、視差情報dが異常値であると判定された場合とで、推定値を異なる方法で補正する。
(推移情報が異常値であると判定された場合について)
先ず始めに、推移情報(u,v)が異常値であると判定された場合に、補正部36が推定値を補正する方法について、図4を用いて説明する。なお、図4に示す画像は、推移情報算出部28が算出した推移情報(u,v)を示すものであって、図3(c)で説明したものと同一である。
図4に示すように、t’−1フレームまでは、図中の囲み線内で示す箇所(追跡点A)のトラッキング(推移情報)は、正常に行われている。従って、算出部32で算出される推定値は、他車両38上の追跡点Aを観測して推定された値となっている。
t’フレームにおいて、トラッキングエラーが発生すると、追跡点が他車両38上のAから背景(側壁)上のBに推移している。すなわち、t’フレームで推移情報算出部28が算出した推移情報(u,v)は、数24または数25(もしくは数28または数29)を満たす異常値となる。この場合に、t’−1フレームでの追跡点Aについての推定値を用いて算出したt’フレームでの追跡点Bについての推定値は、異なる対象物を追跡して得られたエラー値となる。
そこで、補正部36は、推移情報(u,v)が異常値である場合、算出部32が算出したt’フレームでの推定値をキャンセル(無効)すると共に、カルマンフィルタを初期状態にリセットする。このように、トラッキングエラーが発生した場合には、その後、推移情報(u,v)が正常値に修正されることはないため、補正部36は、推定値を数21の初期値にリセットする。
推移情報(u,v)が異常値である場合、当該画素についてのトラッキングは無効となるため、補正部36は、対象物推定装置10の出力として無効値を設定する。すなわち、推移情報(u,v)が異常値と判断された当該画素についての推定値は、無効値が出力され、当該画素についての推定が終了する。
なお、カルマンフィルタが初期状態にリセットされた後も、追跡点Bについてのトラッキングは継続される。従って、t’+1フレームでは、算出部32が追跡点Bについての推定値を前述した初期値を用いて算出する。そして、以降のフレームでは、追跡点Bについての推定値が算出されることとなる。
なお、推移情報(u,v)が異常値でないと判定された場合、補正部36は、算出部32で算出された推定値を補正することなく、当該推定値を対象物推定装置10の出力に設定する。
(視差情報が異常値であると判定された場合について)
次に、視差情報dが異常値であると判定された場合に、補正部36が推定値を補正する方法について、図5を用いて説明する。なお、図5の左側の画像は、視差情報算出部30が算出した視差情報dを示すものであって、図3(b)で説明したものと同一である。また、図5の右側の画像は、左側の画像の対応するフレームでのトラッキング(推移情報)を示したものである。なお、図中の円形の囲み線は、対象物の同一箇所(追跡点C)を示しており、tフレームにおいて視差情報dが異常値となっている。なお、推移情報(u,d)については、全てのフレームにおいて適正に算出されたものとする。すなわち、追跡点Cについてのトラッキングは、正確に行われている。
t−1フレームでは、視差情報dが正しく算出されており、算出部32が算出する推定値も適正なものとなる。従って、補正部36は、算出部32が算出した推定値を出力として設定する。
tフレームでは、トラッキングは正常に実行されているものの、視差情報dに誤差が生じている。すなわち、tフレームで視差情報算出部30が算出する視差情報dは、数26(または数30)を満たす異常値となる。
この場合、異常値である視差情報dを用いて算出された推定値(数19)よりも、数13で得られる予測値の方が対象物の状態をより正確に表している(真値により近い)と考えられる。そこで、補正部36は、視差情報dが異常値であると判定されると、数19から算出された推定値をキャンセルすると共に、数13で得られる予測値を推定値として採用する。そして、補正部36は、対象物推定装置10の出力として、予測値の値に補正された推定値を設定する。
t+1フレームでは、視差情報dが修正されて、適正な値が算出されている。この場合、補正部36は、算出部32が算出した推定値を補正することなく採用する。すなわち、t+1フレームでは、算出部32がtフレームで得られた推定値(予測値)を用いて算出した推定値がそのまま採用される。そして、補正部36は、当該推定値を出力として設定する。
次に、本実施形態の対象物推定装置10による推定方法について、図6のフローチャートを参照して説明する。なお、図6のフローチャートは、任意のフレーム(tフレーム)において、対象物推定装置10が対象物の状態を推定する際の制御フローを示すものである。
第1カメラ16および第2カメラ18(画像取得部12)は、自動車の走行方向前方の風景を撮影し、それぞれ第1の画像および第2の画像を取得する。画像取得部12で取得された第1の画像および第2の画像は、対象物推定装置10(入力値取得部24)に入力される(ステップS10)。
推移情報算出部28は、入力された第1の画像を記憶部に記憶する(ステップS12)。この記憶部に記憶されたtフレームの第1の画像は、次のフレーム(t+1フレーム)において推移情報算出部28が推移情報(u,v)を算出する際に用いられる。
次に、車両情報取得部14が取得した自動車のヨーレートおよび車速が対象物推定装置10(推定値取得部26)に入力される(ステップS14)。すなわち、ヨーレートセンサ20で検出されたヨーレートおよび車速センサ22で検出された自動車の車速が対象物推定装置10に入力される。
次いで、推移情報算出部28は、記憶部から1フレーム前(t−1フレーム)の第1の画像を読み出す(ステップS16)。そして、推移情報算出部28は、画像取得部12から入力された当該フレーム(tフレーム)での第1の画像と、1フレーム前の第1の画像とに基づいて、推移情報(u,v)を算出する(ステップS18)。
視差情報算出部30は、画像取得部12から入力された第1の画像および第2の画像に基づいて、視差情報dを算出する(ステップS20)。このとき、視差情報算出部30は、第1の画像を基準として、当該第1の画像の画素毎に視差情報dを算出する。入力値取得部24で取得された視差情報dおよび推移情報(u,v)は、推定値取得部26に出力される。
推定値取得部26では、第1の画像の所定範囲の各画素について対象物の状態の推定値を取得する(ステップS22〜S38)。すなわち、入力値取得部24から入力された視差情報dおよび推移情報(u,v)に基づいて、算出部32は、予測(数12〜数14)および更新(数15〜数20)によるカルマンフィルタを実行する(ステップS24)。
次に、判定部34が、推移情報算出部28で算出された推移情報(u,v)が異常値であるか否か判定する(ステップS26)。すなわち、判定部34は、推移情報(u,v)の各成分が、数24および数25(または数28および数29)の式をそれぞれ満たすか否か判定する。
ここで、当該画素についてのトラッキングが正しく行われている場合、推移情報(u,v)の各成分は、何れも数24,数25(または数28,数29)を満たすことはない。この場合、判定部34は、推移情報算出部28で算出された推移情報(u,v)が異常値ではないと判定する(ステップS26のNo)。
ステップS26が否定されると、次に、判定部34は、ステップS16で視差情報算出部30が算出した視差情報dが異常値であるか否か判定する(ステップS28)。すなわち、判定部34は、視差情報dが数26(または数30)を満たすか否か判定する。
ここで、当該画素についての視差情報dが適切に算出されている場合、視差情報dが数26(または数30)を満たすことはない。この場合、判定部34は、視差情報算出部30で算出された視差情報dが異常値でないと判定する(ステップS28のNo)。
判定部34が推移情報(u,v)および視差情報dが何れも異常値でないと判定すると、補正部36は、ステップS24で算出部32が算出した推定値を補正することなく採用する。すなわち、補正部36は、ステップS24で算出された推定値をそのまま当該画素における推定値の出力として設定する(ステップS30)。
一方、ステップS26において、当該画素に対するトラッキングが適正に行われていなかった場合、推移情報(u,v)の少なくとも1つの成分が数24,数25(数28,数29)を満たすことになる。この場合、判定部34は、推移情報(u,v)が異常値であると判定する(ステップS26のYes)。
推移情報(u,v)が異常値であると判定されると、補正部36は、ステップS24で算出された推定値を採用することなく、カルマンフィルタを初期状態にリセットする(ステップS32)。すなわち、補正部36は、予め設定された初期値(数21)をカルマンフィルタにセットする。そして、補正部36は、当該画素における推定値の出力として無効値を設定する(ステップS34)。
このように、推移情報算出部28が算出した推移情報(u,v)が異常値である場合、補正部36は、当該推移情報(u,v)に基づいて算出された推定値をキャンセルして、当該画素における推定値を無効とする。これにより、適切にトラッキングされなかった画素についての推定結果を用いることで、大きな誤差を含んだ推定値が出力されるのを防止し得る。
一方、ステップS28において、当該画素における視差情報dに誤差が生じていた場合、視差情報dは数26(または数30)を満たすことになる。この場合、判定部34は、視差情報dが異常値であると判定する(ステップS28のYes)。視差情報dが異常値であると判定されると、補正部36は、ステップS24で算出部32が算出した推定値をキャンセルする。そして、補正部36は、算出部32がカルマンフィルタを実行する際に算出した予測値(数13参照)の値を推定値に設定する(ステップS36)。
すなわち、補正部36は、視差情報dが異常値である場合には、算出部32が算出した推定値も誤差を含んでいることから、当該推定値をキャンセルする。そして、補正部36は、算出部32が算出した推定値よりも正確と考えられる予測値を当該画素における推定値に設定する。これにより、視差情報dに誤差が含まれている場合であっても、対象物の推定値として、より適切な値が採用されることになり、対象物推定装置10の信頼性を高めることができる。
しかも、視差情報dは、フレーム毎に独立して算出されるから、現在のフレームの視差情報dが異常値であったとしても、後のフレームでの視差情報dの算出に影響を与えることがない。従って、補正部36は、推移情報(u,v)が異常値の場合のようにカルマンフィルタを初期状態にリセットすることはなく、当該画素に対する以後の推定は継続される。
補正部36は、推定値として予測値の値を設定すると、当該推定値の値を当該画素における出力値として設定する(ステップS30)。
推定値取得部26は、当該画素についての推定値が決定すると、ステップS26〜S36を次の画素について実行する。そして、第1の画像の所定範囲にある全ての画素について推定値が決定すると(ステップS38)、推定値取得部26は、出力に設定された推定値を運転支援装置に出力し(ステップS40)、現在のフレームについての処理を終了する。
[実験例]
次に、前述した対象物推定装置10の効果を確認するべく、視差情報dに異常値が生じる場合での実証実験(実験例)を行った。図7に示すように、対象物推定装置10が搭載された自動車42は、車速25km/hで道路を直進するものとする。そして、自動車42の走行方向の前方を走行する車両(以下、他車両44という)を対象物として、当該他車両44の位置および速度を推定した。なお、座標系は、図7に示す通りであり、第1カメラ16のレンズの中心を原点位置とした。
ここで、車速センサ22の車速は7.32m/s、ヨーレートセンサ20のヨーレートは、0.15deg/sであるとする(何れも誤差を含む)。この場合、数1に示すカルマンフィルタのプロセスモデルは、以下のように表される。
Figure 0006110256
ここで、数31の共分散行列Qは、以下に示すように、事前に行ったシミュレーションにおいて得られた適合値を採用した。
Figure 0006110256
また、観測モデルの数9に示す共分散行列Rは、以下に示すように、事前に行ったシミュレーションにおいて得られた適合値を採用した。
Figure 0006110256
また、本実験例においては、カルマンフィルタの初期値として、以下のような値を設定した。推定値の初期値(数21参照)において、位置については、入力値の初期値(u0,v,d)から算出し、また、速度については、事前に行ったシミュレーションで得られた適合値(0.00)を用いた。
Figure 0006110256
また、数22に示す推定値の誤差の共分散行列の初期値については、共分散行列の一部の要素については、事前に行ったシミュレーションで求めた(u,v,d)の分散(σ ,σ ,σ )に基づいて算出した。また、共分散行列のその他の要素については、当該シミュレーションで求めた適合値を直接採用した。
Figure 0006110256
Figure 0006110256
また、実験例では、判定部34による入力値の判定として、数28〜数30の式を用いた。
以上の条件下において、0フレームから20フレーム間に亘って、対象物推定装置10による対象物の状態推定を行った。そして、他車両44までの距離(Z)の推定結果を図8のグラフに示す。なお、実験例では、9フレーム目において、視差情報dに異常値が生じたものとする。また、比較のため、カルマンフィルタを用いないで推定した結果(比較例1)と、視差情報dが異常値であっても補正部36による補正を行わない条件で推定した結果(比較例2)とを併せて示す。なお、グラフ中の真値は、他車両44までの実際の距離を示している。
図8のグラフから分かるように、フィルタを用いない比較例1では、視差情報dが異常値となった9フレームにおいて、真値に対して大きくズレていることが分かる。
また、推定値の補正を行わない比較例2については、8フレームまでは実験例と同様な軌跡を描いている。しかしながら、視差情報dが異常値となる9フレームでは、当該視差情報dから算出された推定値がそのまま採用されることで、推定結果が真値から外れていることが分かる。また、10フレーム以降では、9フレームでの誤差を含む推定値の影響で、真値からズレた推定結果が続いている。
一方、実験例では、推定の開始から徐々に真値に近づき、視差情報dが異常値となる9フレームにおいても、真値に近い推定結果となっている。これは、9フレームでは、算出部32が算出した推定値ではなく、予測値の値が推定値として採用されたためである。また、10フレーム以降においても、真値に近い推定結果となっている。このように、実験例が、対象物の距離を最も正確に推定していることが分かる。
以上に説明した実施形態に係る対象物推定装置10および対象物推定方法によれば、以下の効果を奏する。
(1)補正部36は、判定部34の判定結果に基づいて、算出部32が算出した推定値を補正する。従って、推定値の精度が向上して、対象物の状態を正確に推定することができる。
(2)推移情報(u,v)が異常値であると判定部34が判定した場合、補正部36は、カルマンフィルタを初期状態にリセット(推定値を初期値に設定)すると共に、算出部32が算出した推定値を無効値とする。これにより、異常値である推移情報(u,v)を用いて算出した推定値をそのまま出力するのを防止することができる。すなわち、トラッキングエラーが生じた画素から得られた推定値を無効として、対象物推定装置の信頼性を高めることができる。
なお、カルマンフィルタを初期状態にリセットすることで、トラッキングエラーにより追跡点が推移した後は、当該追跡点を初期状態から追跡することができる。すなわち、異常値が生じた追跡点とは異なる新たな追跡点として、推定を継続させることができる。
(3)、視差情報dは、フレーム毎に算出されて、視差情報dの異常値もフレーム単位で独立して発生する。このような視差情報dの特性に鑑み、視差情報dが異常値である場合、補正部36は、算出部32が算出した推定値よりも精度の高いと考えられる予測値を推定値として設定する。これにより、視差情報dが異常値である場合に、対象物の推定値の誤差を小さくすることができる。
しかも、補正部36は、推移情報(u,v)に異常値が生じた場合のようにカルマンフィルタを初期状態にリセットすることはない。従って、次のフレームでは、予測値に設定された推定値を用いて当該画素についての推定を継続することができる。
(4)判定部34は、推移情報算出部28が算出した推移情報(u,v)と、予測値から算出される予測推移情報との差(数24,数25または数28,数29参照)に基づいて、当該推移情報(u,v)が異常値であるか否か判定する。従って、推移情報算出部28が算出した推移情報(u,v)が異常値であるか否かを判定部34が適切に判定することができる。
(5)判定部34は、視差情報算出部30が算出した視差情報dと、予測値から算出される予測視差情報との差(数26または数30参照)に基づいて、当該視差情報dが異常値であると判定する。従って、視差情報算出部30が算出した視差情報dが異常値であるか否かを判定部34が適切に判定することができる。
(6)ここで、判定部34が判定する際の閾値として、数24〜数26に示す固定値を採用した場合には、推移情報(u,d)および視差情報dの判定を効率的に行うことができ、判定部34の処理負担を軽減することができる。
(7)一方、閾値として数28〜数30に示す変数値を採用した場合には、観測値や推測値のばらつきを考慮して適切な判定をすることができる。これにより、例えば、対象物が遠方にあって視差情報dがノイズの影響を受け易い場合には、閾値の値が大きくなって、異常値であると判定され難くするといったことが可能となる。一方、対象物が近くにあって視差情報dに対するノイズの影響が小さい場合には、閾値が小さくなって、視差情報dの異常値を正確に捉えることが可能となる。
(変更例)
前述した実施形態に係る対象物推定装置は、以下のように変更することが可能である。
・実施形態では、フィルタとして、予測(数12〜数14)および更新(数15〜数20)を繰り返すことで対象物の状態を推定するカルマンフィルタを採用した。しかしながら、カルマンフィルタとしては、実施形態に限定されるものではなく、例えば、アンセンテッドカルマンフィルタやパーティクルフィルタ等を採用してもよい。
・また、フィルタとしては、実施形態のようにカルマンフィルタに限定されるものではなく、例えばHフィルタ等の他のフィルタを採用することができる。
・実施形態では、画像取得手段として、第1カメラおよび第2カメラを備えた画像取得部を例示した。しかしながら、画像取得手段としては、異なる位置から複数の画像を取得するものであればよく、3つ以上のカメラを備えていてもよい。また、実施形態では、第1カメラおよび第2カメラが取得した第1画像および第2画像から視差情報を算出したが、3つ以上のカメラで撮影した3つ以上の画像から視差情報を算出するようにしてもよい。
・実施形態では、第1カメラが取得した画像を基準画像として、対象物の状態を推定したが、第2カメラが取得した画像を基準画像として推定値を算出してもよい。この場合、第2カメラが第1撮影手段、第1カメラが第2撮影手段となり、第2カメラが撮影した画像が第1の画像、第1カメラが撮影した画像が第2の画像となる。
・実施形態では、第1の画像の連続するフレームから推移情報を算出したが、時間的に前後するフレームであれば、必ずしも連続するフレームから推移情報を算出する必要はない。例えば、1フレームおいて前後するフレーム間(すなわち、tフレームおよびt+2フレーム)から推移情報を算出するようにしてもよい。
・実施形態では、第1カメラおよび第2カメラが自動車の走行方向の前方を撮影して、自動車の前方の対象物を推定する場合を示した。しかしながら、例えば、第1カメラおよび第2カメラが自動車の側方(左右方向)や後方を撮影するようにしてもよい。これにより、自動車の前方以外の対象物(例えば、後方車両)について、状態を推定することが可能となる。
・実施形態では、対象物推定装置を普通乗用車の自動車に搭載した場合を例示したが、対象物推定装置は、バスやトラック等の大型車や自動二輪車等、あらゆる車両に搭載することができる。また、対象物推定装置をシミュレーション装置等の実験施設に搭載してもよい。
・実施形態では、車速センサで並進運動を算出したが、第1撮影手段で取得された第1の画像または第2撮影手段で取得された第2の画像から自動車の並進運動を算出してもよい。同様に、回転運動についても、ヨーレートセンサを採用することなく、第1の画像または第2の画像から自動車の回転運動を算出してもよい。
・実施形態では、第1の画像の所定範囲の画素についてカルマンフィルタを実行し、推定値を算出したが、第1の画像の全ての画素について推定値を算出してもよい。
12…画像取得部、28…推移情報算出部、30…視差情報算出部、32…算出部、34…判定部、36…補正部、d…視差情報。

Claims (10)

  1. 画像取得手段(12)が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定装置であって、
    前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段(28)と、
    前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段(30)と、
    前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段(32)と、
    前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段(34)と、
    前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段(36)とを備え、
    前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する
    ことを特徴とする対象物推定装置。
  2. 前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に、前記フィルタを初期状態にリセットする請求項1記載の対象物推定装置。
  3. 前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、
    前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を当該推定値取得手段が取得した前記予測値の値に補正する請求項1または2記載の対象物推定装置。
  4. 前記判定手段は、前記推移情報取得手段が取得した前記推移情報と、前記推定値取得手段が取得した前記予測値から算出され、前記推移情報に対応する予測推移情報との差に基づいて、当該推移情報が異常値であるか否か判定する請求項3記載の対象物推定装置。
  5. 前記判定手段は、前記視差情報取得手段が取得した前記視差情報と、前記推定値取得手段が取得した前記予測値から算出され、前記視差情報に対応する予測視差情報との差に基づいて、当該視差情報が異常値であるか否か判定する請求項3または4記載の対象物推定装置。
  6. 画像取得手段(12)が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定方法であって、
    前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を推移情報取得手段(28)が取得するステップ(S18)と、
    前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として視差情報取得手段(30)が取得するステップ(S20)と、
    前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定値取得手段(32)が推定するステップ(S24)と、
    前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定手段(34)が判定するステップ(S26,S28)と、
    前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正手段(36)が補正するステップ(S32,S34,S36)とを備え、
    前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する
    ことを特徴とする対象物推定方法。
  7. 前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に(S34)、前記フィルタを初期状態にリセットする(S32)請求項6記載の対象物推定方法。
  8. 前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、
    前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を前記推定値取得手段が取得した前記予測値の値に補正する(S36)請求項6または7記載の対象物推定方法。
  9. 前記判定手段は、前記推移情報取得手段が取得した前記推移情報と、前記推定値取得手段が取得した前記予測値から算出され、前記推移情報に対応する予測推移情報との差に基づいて、当該推移情報が異常値であるか否か判定する請求項8記載の対象物推定方法。
  10. 前記判定手段は、前記視差情報取得手段が取得した前記視差情報と、前記推定値取得手段が取得した前記予測値から算出され、前記視差情報に対応する予測視差情報との差に基づいて、当該視差情報が異常値であるか否か判定する請求項8または9記載の対象物推定方法。
JP2013171774A 2013-08-21 2013-08-21 対象物推定装置および対象物推定方法 Active JP6110256B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013171774A JP6110256B2 (ja) 2013-08-21 2013-08-21 対象物推定装置および対象物推定方法
US14/912,885 US9767367B2 (en) 2013-08-21 2014-08-20 Object estimation apparatus and object estimation method
DE112014003818.0T DE112014003818T5 (de) 2013-08-21 2014-08-20 Objektschätzvorrichtung und Objektschätzverfahren
PCT/JP2014/071800 WO2015025897A1 (ja) 2013-08-21 2014-08-20 対象物推定装置および対象物推定方法
CN201480046274.2A CN105474265B (zh) 2013-08-21 2014-08-20 对象物推断装置以及对象物推断方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171774A JP6110256B2 (ja) 2013-08-21 2013-08-21 対象物推定装置および対象物推定方法

Publications (2)

Publication Number Publication Date
JP2015041238A JP2015041238A (ja) 2015-03-02
JP6110256B2 true JP6110256B2 (ja) 2017-04-05

Family

ID=52483668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171774A Active JP6110256B2 (ja) 2013-08-21 2013-08-21 対象物推定装置および対象物推定方法

Country Status (5)

Country Link
US (1) US9767367B2 (ja)
JP (1) JP6110256B2 (ja)
CN (1) CN105474265B (ja)
DE (1) DE112014003818T5 (ja)
WO (1) WO2015025897A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6110256B2 (ja) 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
JP6643215B2 (ja) 2016-09-29 2020-02-12 株式会社デンソー 他車線監視装置
JP6815856B2 (ja) * 2016-12-14 2021-01-20 日立オートモティブシステムズ株式会社 先行車両の走行軌跡予測装置及びその搭載車両
US10146225B2 (en) * 2017-03-02 2018-12-04 GM Global Technology Operations LLC Systems and methods for vehicle dimension prediction
EP3407273A1 (de) * 2017-05-22 2018-11-28 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines anomalen zustands eines systems
JP6936098B2 (ja) * 2017-09-29 2021-09-15 トヨタ自動車株式会社 対象物推定装置
JP6849569B2 (ja) * 2017-09-29 2021-03-24 トヨタ自動車株式会社 路面検出装置
JP7142468B2 (ja) * 2018-05-30 2022-09-27 スズキ株式会社 移動体追跡装置
JP7223587B2 (ja) * 2019-02-04 2023-02-16 日産自動車株式会社 物体運動推定方法及び物体運動推定装置
WO2020170462A1 (ja) * 2019-02-22 2020-08-27 公立大学法人会津大学 動画像距離算出装置および動画像距離算出用プログラムを記録したコンピュータ読み取り可能な記録媒体
DE102020201505A1 (de) 2020-02-07 2021-08-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum kamerabasierten Ermitteln einer Geschwindigkeit eines Fortbewegungsmittels
CN112435475B (zh) * 2020-11-23 2022-04-29 北京软通智慧科技有限公司 一种交通状态检测方法、装置、设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
EP0631683B1 (en) * 1992-03-20 2001-08-01 Commonwealth Scientific And Industrial Research Organisation An object monitoring system
JPH0894320A (ja) 1994-09-28 1996-04-12 Nec Corp 移動物体計測装置
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
JP4151631B2 (ja) 2004-09-08 2008-09-17 日産自動車株式会社 物体検出装置
DE102005008131A1 (de) 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
JP5063023B2 (ja) * 2006-03-31 2012-10-31 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法
KR100927096B1 (ko) * 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8594920B2 (en) * 2009-02-27 2013-11-26 Toyota Jidosha Kabushiki Kaisha Vehicle relative position estimation apparatus and vehicle relative position estimation method
JP4733756B2 (ja) * 2009-04-28 2011-07-27 本田技研工業株式会社 車両周辺監視装置
JP5528151B2 (ja) * 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
JP5389002B2 (ja) * 2010-12-07 2014-01-15 日立オートモティブシステムズ株式会社 走行環境認識装置
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
GB2506338A (en) * 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
US9641763B2 (en) * 2012-08-29 2017-05-02 Conduent Business Services, Llc System and method for object tracking and timing across multiple camera views
JP6014440B2 (ja) * 2012-09-26 2016-10-25 日立オートモティブシステムズ株式会社 移動物体認識装置
JP6110256B2 (ja) 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
JP6225889B2 (ja) * 2014-11-19 2017-11-08 株式会社豊田中央研究所 車両位置推定装置及びプログラム
US9710712B2 (en) * 2015-01-16 2017-07-18 Avigilon Fortress Corporation System and method for detecting, tracking, and classifiying objects

Also Published As

Publication number Publication date
JP2015041238A (ja) 2015-03-02
CN105474265B (zh) 2017-09-29
US20160203376A1 (en) 2016-07-14
DE112014003818T5 (de) 2016-05-04
WO2015025897A1 (ja) 2015-02-26
US9767367B2 (en) 2017-09-19
CN105474265A (zh) 2016-04-06

Similar Documents

Publication Publication Date Title
JP6110256B2 (ja) 対象物推定装置および対象物推定方法
US9729858B2 (en) Stereo auto-calibration from structure-from-motion
KR101961001B1 (ko) 단일-카메라 거리 추정
US10007998B2 (en) Image processor, apparatus, and control system for correction of stereo images
KR102507248B1 (ko) 에고모션 추정 시스템 및 방법
WO2014199929A1 (ja) 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
JP6743171B2 (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
JP7212486B2 (ja) 位置推定装置
WO2020137110A1 (ja) 移動量推定装置
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2019066302A (ja) 対象物推定装置
JP7303064B2 (ja) 画像処理装置、および、画像処理方法
JP6747176B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP2021193340A (ja) 自己位置推定装置
US10536646B2 (en) Imaging control device and imaging control method
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP6489645B2 (ja) 画像処理装置
JP2021043486A (ja) 位置推定装置
JP7457574B2 (ja) 画像処理装置
JP5682266B2 (ja) 移動量推定装置および移動量推定方法
JP2017049146A (ja) 画像処理装置
JP2020087210A (ja) キャリブレーション装置及びキャリブレーション方法
JP2020027057A (ja) ステレオカメラ装置
JP2019029986A (ja) 撮像制御装置および撮像制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170309

R150 Certificate of patent or registration of utility model

Ref document number: 6110256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250