JP5113867B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP5113867B2
JP5113867B2 JP2010072222A JP2010072222A JP5113867B2 JP 5113867 B2 JP5113867 B2 JP 5113867B2 JP 2010072222 A JP2010072222 A JP 2010072222A JP 2010072222 A JP2010072222 A JP 2010072222A JP 5113867 B2 JP5113867 B2 JP 5113867B2
Authority
JP
Japan
Prior art keywords
camera motion
camera
vehicle
feature points
temporary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010072222A
Other languages
English (en)
Other versions
JP2011204111A (ja
Inventor
裕次 横地
敦央 江口
守道 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010072222A priority Critical patent/JP5113867B2/ja
Publication of JP2011204111A publication Critical patent/JP2011204111A/ja
Application granted granted Critical
Publication of JP5113867B2 publication Critical patent/JP5113867B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、車両に設けられたカメラによる撮像画像から、車両周辺の監視対象物を検出する車両周辺監視装置に関する。
車両に設けられたカメラを用いて走行中に車両周辺を監視する場合、ピッチング(鉛直方向の車両の揺れ)等によりカメラの視軸が変化したときであっても、監視対象物を安定して検出できることが望ましい。
そこで、車両に設けられたカメラの時系列画像間で特徴点を追跡して因子分解法により各特徴点の三次元座標値を求め、この三次元座標値の再投影誤差を最小とするように最適化を行ってカメラ運動を推定することにより、撮像時のカメラの三次元位置及び姿勢を求める方法が提案されている(例えば、特許文献1参照)。
特開2007−292657号公報
上述した特許文献1に記載された方法では、パターンマッチング等の処理により各時系列画像から同一物体の同一特徴点を抽出して、特徴点の追跡を行い、この追跡結果に基づいてカメラ運動を推定している。そのため、特徴点の誤検出により特徴点の追跡を誤ると、カメラ運動を精度良く推定することができないという不都合がある。
また、各時系列画像から同一物体の特徴量を抽出して特徴量を求める処理は、膨大な計算量を要するため、短時間で処理を行うには高性能の処理系を備えなけらばならないという不都合がある。
さらに、物体の移動態様(移動方向、移動量)や物体の明暗の変化等により、特徴量の追跡を正確に行うことができなくなる場合があるという不都合がある。
本発明は上記背景を鑑みてなされたものであり、カメラの時系列画像間での特徴点の追跡を行うことなく、計算量を低減させてカメラ運動を精度良く求めることができる車両周辺監視装置を提供することを目的とする。
先ず、本発明の前提となるエピポーラ幾何の考え方について、図11を参照して説明する。
図11は、カメラ100の視点Vp1及びカメラ101の視点Vp2と、空間上の注目点Ptとを結んだ平面として定義されるエピポーラ平面Efと、カメラ100の撮像面Ip1及びカメラ101の撮像面Ip2との位置関係を示したものである。エピポーラ平面Efと各撮像面Ip1及びIp2との交線EL1,EL2をエピポーラ線といい、視点Vp1及びVp2を結ぶ直線と各撮像面Ip1,Ip2との交点Ep1,Ep2をエピポールという。
図11に示したように、空間上の一つの注目点Ptに対して一つのエピポーラ平面Efが規定され、エピポーラ平面Efと各撮像面Ip1,Ip2との交線(エピポーラ線)EL1,EL2が定まる。そして、注目点Ptの撮像面Ip1での対応点m1は撮像面Ip1のエピポーラ線EL1上に存在し、注目点Ptの撮像面Ip2での対応点m2は撮像面Ip2のエピポーラ線EL2上に存在するという拘束関係(エピポーラ拘束)がある。
また、図11では2台のカメラ100,101により撮像する例を示したが、1台のカメラにより異なる時間で撮像された2つの画像についても、同様にしてエピポーラ拘束を考えることができる。
本発明は、上記エピポーラ拘束の考え方を用いたものであり、車両に搭載されたカメラにより異なる時点で撮像された画像間での特徴点の変位に基づいて、前記カメラの視軸の変化を示すカメラ運動を推定するカメラ運動推定部と、前記カメラによる撮像画像と前記カメラ運動とに基づいて、車両周囲に所在する対象物の位置を検知する対象物検知部とを備えた車両周辺監視装置に関する。
そして、本発明の第1の態様は、前記カメラ運動推定部は、前記カメラにより異なる時点で撮像された第1撮像画像及び第2撮像画像について、該第1撮像画像から所定条件を満たす複数の第1特徴点を抽出すると共に、該第2撮像画像から該所定条件を満たす複数の第2特徴点を抽出する特徴点抽出処理と、前記第2撮像画像の撮像時におけるカメラ運動を想定した仮カメラ運動を設定し、前記複数の第1特徴点を一つずつ順次選択して、選択した第1特徴点に対応する前記第2撮像画像での第2エピポーラ線を求め、前記複数の第2特徴点から該第2エピポーラ線までの距離が最小となる第2特徴点を抽出して、該最小の距離を該選択した第1特徴点の距離誤差とし、各第1特徴点の距離誤差の総和を算出する総距離誤差算出処理を、前記仮カメラ運動を変更しながら繰り返し実行して、該距離誤差の総和が最小となる前記仮カメラ運動を求める仮カメラ運動最適化処理と、前記距離誤差の総和が最小となる仮カメラ運動を、前記カメラ運動として推定するカメラ運動推定処理とを実行することを特徴とする。
かかる本発明によれば、前記車両運動推定部は、前記特徴点抽出処理により、前記第1撮像画像から前記第1特徴点を抽出すると共に、前記第2撮像画像から前記第2特徴量を抽出する。そして、前記仮カメラ運動最適化処理により、各第1特徴点の前記距離誤差の総和が最小となる仮カメラ運動を求めている。
ここで、図12に示したように、車両に搭載されたカメラ110の視軸が、カメラ運動Mij(車両のピッチング等によるカメラ110の姿勢の変化)により、前回の撮像時(フレームiの撮像時)と今回の撮像時(フレームjの撮像時)間で変化した場合を考えると、今回の撮像時でのエピポールは、カメラ運動Mijに応じて変化する。
そして、このエピポールの変化に応じて、空間上の対象物に応じたフレームjの撮像画像Im102でのエピポーラ線が変化する。そのため、フレームjの撮像時の仮カメラ運動をいくつか設定し、各仮カメラ運動に基づくエピポーラ線(EL100、EL101、EL102、EL103、EL104、…)のうち、対象物の画像の特徴点m102との距離が最小になるエピポーラ線が設定される仮カメラ運動を求めることで、カメラ運動Mijを推定することができる。
そこで、前記車両運動推定部は、前記仮カメラ運動最適化処理により前記各第1特徴点の距離誤差の総和が最小となる仮カメラ運動を求め、該仮カメラ運動を前記カメラ運動として推定する前記カメラ運動推定処理を実行する。これにより、時系列画像間の特徴量の追跡を不要として、計算量を低減させてカメラ運動を精度良く推定することができる。
次に、本発明の第2の態様は、前記車両運動推定部は、前記カメラにより異なる時点で撮像された第1撮像画像及び第2撮像画像について、該第1撮像画像から所定条件を満たす複数の第1特徴点を抽出すると共に、該第2撮像画像から該所定条件を満たす複数の第2特徴点を抽出する特徴点抽出処理と、前記第2撮像画像の撮像時におけるカメラ運動を想定した仮カメラ運動を設定し、前記複数の第1特徴点を一つずつ順次選択して、選択した第1特徴点に対応する前記第2撮像画像での第2エピポーラ線を求めると共に、前記複数の第2特徴点に対応する前記第1画像での第1エピポーラ線を求め、前記複数の第2特徴点のうち、該第2エピポーラ線との距離と、該選択した第1特徴点と該対応する第1エピポーラ線との距離の和が最小となる第2特徴点を抽出して、該最小となる距離の和を該選択した第1特徴点の距離誤差とし、各第1特徴点の距離誤差の総和を算出する処理を、前記仮カメラ運動を変更しながら繰り返し実行して、該距離誤差の総和が最小となる前記仮カメラ運動を求める仮カメラ運動最適化処理と、前記距離誤差の総和が最小となる仮カメラ運動を、前記カメラ運動として推定するカメラ運動推定処理とを実行することを特徴とする。
かかる本発明によれば、詳細は後述するが、前記仮カメラ運動が真のカメラ運動に近いほど、前記第1撮像画像の前記第1エピポーラ線と前記第1特徴点との距離、及び前記第2撮像画像の前記第2エピポーラ線と前記第2特徴点との距離がいずれも短くなる。そこで、前記カメラ運動推定部は、前記仮カメラ運動最適化処理により各第1特徴点の前記距離誤差の総和が最小となる仮カメラ運動を求めて、該仮カメラ運動を前記カメラ運動として推定する前記カメラ運動推定処理を実行する。これにより、時系列画像間の特徴点の追跡を不要として、計算量を低減させてカメラ運動を精度良く推定することができる。
次に、本発明の第3の態様は、前記車両運動推定部は、前記カメラにより異なる時点で撮像された第1撮像画像及び第2撮像画像について、該第1撮像画像から所定条件を満たす複数の第1特徴点を抽出すると共に、該第2撮像画像から該所定条件を満たす複数の第2特徴点を抽出する特徴点抽出処理と、前記第2撮像画像の撮像時におけるカメラ運動を想定した仮カメラ運動を設定し、前記複数の第1特徴点を一つずつ順次選択して、選択した第1特徴点に対応する前記第2撮像画像での第2エピポーラ線を求め、該第2エピポーラ線の線上に前記第2特徴点が位置しているか否かを判断し、各第1特徴点のうち、対応する前記第2撮像画像での第2エピポーラ線の線上に前記第2特徴点が存在するものの個数である対特徴点数を算出する処理を、前記仮カメラ運動を変更しながら繰り返し実行して、該対特徴点数が最大となる前記仮カメラ運動を求める仮カメラ運動最適化処理と、前記対特徴点数が最大となる仮カメラ運動を、前記カメラ運動として推定するカメラ運動推定処理とを実行することを特徴とする。
かかる本発明によれば、前記仮カメラ運動が真のカメラ運動に近いほど、前記仮カメラ運動最適化処理により算出される、対応する前記第2撮像画像での前記第2エピポーラ線の線上に前記第2特徴点が存在する前記第1特徴点の個数である前記対特徴点数が多くなる。そこで、前記カメラ運動推定部は、前記仮カメラ運動最適化処理により前記対特徴点数が最大となる仮カメラ運動を求めて、該仮カメラ運動を前記カメラ運動として推定する前記カメラ運動推定処理を実行する。これにより、時系列画像間の特徴量の追跡を不要として、計算量を低減させてカメラ運動を精度良く推定することができる。
また、前記第1から第3の実施の態様において、前記車両の挙動を検出する車両挙動検出部を備え、前記車両運動推定部は、前記車両の挙動に応じて、前記仮カメラ運動最適化処理における前記仮カメラ運動の初期値を決定することを特徴とする。
かかる本発明によれば、前記車両挙動検出部により検出される前記車両の挙動(例えば、ヨー角、車速、加減速、ナビゲーションシステムから提供される道路の勾配・曲率等により検出される)から、前記第1撮像画像と前記第2画像間における前記カメラ運動を想定して、前記仮カメラ運動の初期値を決定することにより、真のカメラ運動に近い仮カメラ運動を速やかに求めることができる。
また、前記車両運動推定部は、前記仮カメラ運動に対応する前記車両の移動方向に合わせて、前記仮カメラ運動最適化処理における前記仮カメラ運動の変更態様を決定することを特徴とする。
かかる本発明によれば、前記仮カメラ運動に対応する前記車両の移動方向に合わせて前記仮カメラ運動を変更することにより、前記仮カメラ運動最適化処理において、真のカメラ運動に近い仮カメラ運動を効率良く求めることができる。
また、前記対象物の移動量を検出する移動量検出部を備え、前記所定条件に、移動量が所定値以下であることが含まれていることを特徴とする。
かかる本発明によれば、静止物又は静止物と同一視できる対象物の画像を用いることで、前記カメラ運動を推定するときに対象物の移動による誤差が生じることを抑制することができる。
車両周辺監視装置の構成図。 車両周辺監視装置の車両への取付態様の説明図。 ピッチングによるエピポールの変化の説明図。 第1の実施形態における仮カメラ運動の最適化処理の説明図。 距離誤差の算出処理の説明図。 エピポーラ線と第2特徴点との距離の算出の説明図。 第2の実施形態における仮カメラ運動の最適化処理の説明図。 第3の実施形態における仮カメラ運動の最適化処理の説明図。 仮カメラ運動の初期設定の説明図。 仮カメラ運動の変更態様の説明図。 エピポーラ幾何の説明図。 カメラ運動の推定方法の説明図。
本発明の実施形態について、図1〜図10を参照して説明する。図1を参照して、本発明の車両周辺監視装置は、ECU(Electronic Control Unit)1と、遠赤外線を検出可能な赤外線カメラ2(本発明のカメラに相当する)と、レーザー光線を物体に照射してその反射波を受信することにより物体と車両間の実空間上の相対位置(相対距離を含む)を検出するレーザーレーダー8と、車両のヨーレートを検出するヨーレートセンサ3と、車両の走行速度を検出する車速センサ4とを備えている。
ECU1は、レーザーレーダー8による物体の位置の検出データと赤外線カメラ2による撮像画像から、車両前方に所在する物体の種別(他車両、自転車、歩行者等)を判別し、車両が接触する可能性が高い自転車又は歩行者を検知したときに警報を出力する。そして、車両周辺監視装置は、音声により警報を行うためのスピーカ5と、監視対象物を運転者に視認させる表示を行うためのヘッドアップディスプレイ(以下、HUDという)7とを備えている。
次に、図2を参照して、車両周辺監視装置の車両への取付け態様を説明する。レーザーレーダー8はスキャン方式のレーザーレーダーであり、車両10の前部に配置されている。そして、レーザーレーダー8は、予め設定された前方(車両10の進行方向)の第1監視範囲内を水平方向及び垂直方向に走査する。
また、赤外線カメラ2は、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。そして、赤外線カメラ2は、車両10の前部に配置されて予め設定された前方の第2監視範囲(上記第1監視範囲内に設定される)を撮像する。HUD7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。
また、図1を参照して、ECU1は、赤外線カメラ2から出力されるアナログの映像信号をデジタルデータに変換して画像メモリ12に取り込む画像入力回路11と、画像メモリ12に取り込まれた画像データにアクセス(読出し及び書込み)するためのインターフェース回路(図示しない)と、レーザーレーダー8による物体の位置(車両10からの物体の相対位置)の検出信号を入力するためのインターフェース回路(図示しない)とを有している。
また、ECU1は、画像メモリに取り込まれた車両前方の画像データに対して各種の演算処理を行うコンピュータ(CPU,メモリ,入出力回路等からなる演算処理回路、或いはこれらの機能を集約したマイクロコンピュータ)等を備えた電子ユニットである。
そして、前記コンピュータに車両周辺監視用のプログラムを実行させることによって、前記コンピュータが、時系列画像間の撮像時における赤外線カメラ2の視軸の変化を示すカメラ運動の推定値Mij_eを求めるカメラ運動推定部13と、カメラ運動の推定値Mij_eとレーザーレーダー8による検出データ及び赤外線カメラ2の撮像画像とに基づいて車両10と接触する可能性が高い物体(対象物)を検出する対象物検知部14として機能する。
カメラ運動推定部13は、所定の制御周期をもって撮像された第1撮像画像Im1と第2撮像画像Im2間の特徴点の変位から、エピポーラ拘束の概念を用いてカメラ運動の推定値Mij_eを求める。
対象物検知部14は、車速センサ4とヨーレートセンサ3の出力を読み込んで、車両10の回頭角を算出する。そして、レーザーレーダー8による測距データに基いて、回頭角補正を行いつつ、第1監視領域内に所在する物体のトラッキングを行う。
また、対象物検知部14は、トラッキングを行っている物体について、赤外線カメラ2による撮像画像から、カメラ運動の推定値Mij_eによる赤外線カメラ2の視軸補正(トラッキングによる視軸の変化分の補正等)を行ってその画像を検出する。そして、対象物検知部14は、対象物が車両10との接触可能性が高い歩行者又は自転車であると判断したときに、HUD7への表示とスピーカ5からの音声出力による報知を行なう。
次に、図3〜図10を参照して、カメラ運動推定部13によるカメラ運動の推定値Mij_eの算出処理について説明する。
先ず、図3(a),図3(b)は、赤外線カメラ2により異なる時点で撮像された第1撮像画像Im1及び第2撮像画像Im2について、車両10のピッチング(上下動)が生じているときと、生じていないときの第2撮像画像Im2のエピポールの変化を示したものである。
図3(a)はピッチングが生じていない状態で、車両10が前進している場合の撮像画像であり、第1撮像画像Im1のエピポールEp1と第2撮像画像Im2のエピポールEp2はほとんど変化していない。そして、実空間上の対象物の特徴部についての第1画像Im1の画像部分である第1特徴点P1に対応する、該特徴部についての第2画像Im2の画像部分である第2特徴点Q1は、第2撮像画像Im2でのエピポーラ線EL_P1上にある。
それに対して、図3(b)はピッチングが生じている状態で、車両10が前進している場合の撮像画像であり、第2撮像画像Im2のエピポールEp2が上方に変位して、エピポーラ線EL_P1が変化している。
そのため、図3(b)の第2撮像画像Im2のエピポールEp2の変化を生じさせるカメラ運動を、カメラ運動の推定値Mij_eとして求めることができる。
そこで、カメラ運動推定部13は、以下の第1実施形態〜第3実施形態のいずれかの処理を行ってカメラ運動の推定値Mij_eを求める。
[第1実施形態]
カメラ運動推定部13は、以下の手順によりカメラ運動の推定値Mij_eを求める。
「特徴点抽出処理」
カメラ運動推定部13は、図4の(a)に示したように、ハリスオペレータ等により第1撮像画像Im1から所定特徴量を有する第1特徴点を抽出する。図4(a)ではP1〜P3の3個の特徴点が抽出されている。また、同様にして、カメラ運動推定部13は、図4の(b)に示したように、第2撮像画像Im2から所定特徴量を有する第2特徴点を抽出する。図4(b)ではQ1〜Q3の3個の特徴点が抽出されている。
「仮カメラ運動最適化処理」
カメラ運動推定部13は、図4の(c)に示したように、第2撮像画像Im2の撮像時における仮カメラ運動を設定して、仮カメラ運動に応じた仮エピポールEp2_s1による各第1特徴点P1〜P3に対応する第2エピポーラ線EL_P1〜EL_P3を求める。ここで、カメラ運動推定部13は、仮カメラ運動Mkを複数パターン(Mk1,Mk2,…)用意する。
そして、カメラ運動推定部13は、各仮カメラ運動Mk毎に、各第2エピポーラ線について、図4の(d)に示したように、距離が最小となる第2特徴量を検索して、その距離を対応する第1特徴点の距離誤差dとして算出する。
例えば、図5に示したように、第1撮像画像Im1の第1特徴点P1に対する第2エピポーラ線EL_P1が設定されたときには、第2特徴点Q1〜Q4のうちで、第2エピポーラ線EL_P1との距離が最小となる第2特徴点Q1が選択され、第2特徴点Q1と第2エピポーラ線EL_P1との距離が、第1特徴点P1の距離誤差dとして算出される。
なお、図6に示したように、第2特徴点P(x0,y0)と第2エピポーラ線EL_s(ax+by+c=0)との距離dは、以下の式(1)により算出することができる。
Figure 0005113867
カメラ運動推定部13は、図4(d)では、各第2エピポーラ線EL_P1〜EL_P3について、第2特徴点Q1〜Q3の中から、距離が最小となる第2特徴点を探索して、各第1特徴点P1〜P3の距離誤差dを算出する。
そして、カメラ運動推定部13は、以下の式(2),式(3)により、各仮カメラ運動Mkに対する評価値Ekを算出する。
Figure 0005113867
但し、Ek:仮カメラ運動Mkに対する評価値、p:第1特徴点の識別子(p=1,2,3,…)、d:各第1特徴点の距離誤差。
Figure 0005113867
但し、q:第2特徴点の識別子(q=1,2,3,…)、a,b,c:第1特徴点に対する第2エピポーラ線のパラメータ。
そして、カメラ運動推定部13は、上記式(2)による評価値Ekが最小となる仮カメラ運動Mkを求める。
「カメラ運動推定処理」
カメラ運動推定部13は、「仮カメラ運動最適化処理」により求めた、評価値Ekが最小となる仮カメラ運動Mkを、第2撮像画像Im2の撮像時におけるカメラ運動の推定値Mij_eとして求める。
そして、対象物検知部14は、このようにして求められたカメラ運動の推定値Mij_eによる赤外線カメラ2の撮像画像の変位分を相殺する位置補正を行って、対象物の画像部分の位置を検出する。
[第2実施形態]
次に、図7を参照して、カメラ運動推定部13によるカメラ運動推定値Mij_eの算出処理の第2実施形態について説明する。第2実施形態は、第1特徴点の距離誤差の算出方法が上述した第1の実施形態と相違し、他の処理は第1の実施形態と同様である。
カメラ運動推定部13は、上述した第1実施形態と同様に複数パターンの仮カメラ運動Mk(Mk1,Mk2,…)を設定し、各第1特徴点P1について、図7に示したように距離誤差d'を算出する。図7では、第1特徴点P1に対応する第2エピポーラ線EL_P1と第2特徴点Q1との距離d2と、第2特徴点Q1に対応する第1エピポーラ線EL_Q1と第1特徴点Q1との距離d1との合算距離d'を算出している。
カメラ運動推定部13は、このようにして、全ての第2特徴点についての合算距離d'を算出したときの最小値を、各第1特徴点の距離誤差d'として求める。この場合は、上記式(3)に代えて、以下の式(4)により距離誤差を算出する。
Figure 0005113867
但し、p:第1特徴点の識別子(p=1,2,3,…)、q:第2特徴点の識別子(q=1,2,3,…)、ap,bp,cp:第1特徴点に対応する第2エピポーラ線のパラメータ、aq,bq,cq:第2特徴点に対応する第1エピポーラ線のパラメータ。
そして、カメラ運動推定部13は、以下の式(5)により、各仮カメラ運動Mkに対する評価値Ek'を算出し、評価値Ek'が最小となる仮カメラ運動Mkを求める。
Figure 0005113867
但し、Ek':仮カメラ運動に対する評価値、p:第1特徴点の識別子(p=1,2,3,…)、d':各第1特徴点の距離誤差。
そして、カメラ運動推定部13は、評価値Ek'が最小となる仮カメラ運動Mkを、第2撮像画像Im2の撮像時におけるカメラ運動の推定値Mij_eとして求める。
[第3実施形態]
次に、図8を参照して、カメラ運動推定部13によるカメラ運動推定値Mij_eの算出処理の第3実施形態について説明する。第3の実施形態において、カメラ運動推定部13は、「仮カメラ運動最適化処理」を、第2特徴点と第2エピポーラ線との距離ではなく、第1特徴点のうち、対応する第2撮像画像での第2エピポーラ線上に第2特徴点が存在するものの個数に基づいて行う。
カメラ運動推定部13は、上述した第1実施形態と同様に複数の仮カメラ運動Mk(Mk1,Mk2,…)を設定し、各第1特徴点P1について、各仮カメラ運動Mkに対応する各第2エピポーラ線EL_P1上に第2特徴点(Q1,Q2,…)が存在するか否かを判断する。
そして、カメラ運動推定部13は、各第1特徴点P1のうち、対応する第2エピポーラ線EL_P1上に第2特徴点(Q1,Q2,…)が存在するものの個数(対特徴点数)が、最大となる仮カメラ運動Mkを、第2撮像画像Im2の撮像時におけるカメラ運動の推定値Mji_eとして求める。
また、上記第1実施形態から第3実施形態において、レーザーレーダー8、ヨーレートセンサ3、及び車速センサ4の検出データから検出される車両10の挙動に応じて、仮カメラ運動Mkの初期値を設定するようにしてもよい。なお、このようにして、車両の挙動を検出する構成が、本発明の車両挙動検出部に相当する。
図9は、車両10が前進している場合の評価値Ekと赤外線カメラ2の並進運動のz成分を想定した仮並進運動成分tzとの関係Rを、縦軸を評価値Ekとし、横軸を仮並進運動成分として例示したものである。
ここで、車両10が前進しているときには、同一対象物の画像について、第2撮像画像Im2での位置が、第1撮像画像Im1での位置の下方に移動する。そして、この移動は、赤外線カメラ2が鉛直方向の上向きに並進運動したことに対応する。そこで、仮カメラ運動Mkの初期値を、仮並進運動成分tzの初期値が正側のtz_1となるように設定して、評価値Ekが極小となるように仮カメラ運動Mkを変更することにより、真の並進運動成分tz_2を生じさせる最適な仮カメラ運動Mkを探索することができる。
なお、車両10が前進しているときに、仮カメラ運動Mkの初期値を、仮並進運動成分tzの初期値が負側のtz_3となるように設定して、評価値Ekが極小となるように仮カメラ運動Mkを変更すると、ローカルミニマム点であるtz_4が最適な仮カメラ運動Mkとして、誤って探知されてしまう。そのため、上述したように、仮カメラ運動Mkの初期値を、仮並進運動成分tzの初期値が正側になるように設定することにより、このような最適な仮カメラ運動Mkの誤探知を防止することができる。
次に、図10(a),図10(b)は、車両10が前進している場合の仮カメラ運動Mkの変更態様を例示したものである。仮カメラ運動Mkに応じた仮エピポールEp_sによる第2エピポーラ線を、第1撮像画像Im1の第1特徴点P1を無限遠の点と仮定して対応する点P1'で分けた線分ELa,ELbについて、車両10が前進しているとき(車両10が仮エピポールEp_sの方向に進んでいるとき)は、線分ELbを有効とし、車両10が後退しているとき(車両10が仮エピポールEp_sの方向とは逆向きに進んでいるとき)は、線分ELaを有効とする。
そして、図10(b)に示したように、有効とした線分(例えばELb)と各第2特徴点Q1,Q2,Q3との距離(d1,d2,d3)の最小値を用いて、評価値Ekを算出すればよい。
また、カメラ運動の推定に使用される特徴点は、静止物の画像である必要がある。そこで、レーザーレーダー8により検出された対象物の位置と、車速センサ4により検出された車両10の走行速度とにより、移動量が所定値以下であって静止していると認識できる対象物の画像の特徴点のみを用いてカメラ運動を推定することで、カメラ運動を精度良く推定することができる。
なお、このように、レーザーレーダー8により検出された対象物の位置と、車速センサ4により検出された車両10の走行速度とにより、移動量が所定量以下である物体を静止物と認識する構成が、本発明の静止物検知部に相当する。
1…ECU、2…赤外線カメラ、3…ヨーレートセンサ、4…車速センサ、8…レーザーレーダー、10…車両(自車両)、13…カメラ運動推定部、14…対象物検知部。

Claims (6)

  1. 車両に搭載されたカメラにより異なる時点で撮像された画像間での特徴点の変位に基づいて、前記カメラの視軸の変化を示すカメラ運動を推定するカメラ運動推定部と、
    前記カメラによる撮像画像と前記カメラ運動とに基づいて、車両周囲に所在する対象物の位置を検知する対象物検知部と
    を備えた車両周辺監視装置において、
    前記カメラ運動推定部は、
    前記カメラにより異なる時点で撮像された第1撮像画像及び第2撮像画像について、該第1撮像画像から所定条件を満たす複数の第1特徴点を抽出すると共に、該第2撮像画像から該所定条件を満たす複数の第2特徴点を抽出する特徴点抽出処理と、
    前記第2撮像画像の撮像時におけるカメラ運動を想定した仮カメラ運動を設定し、前記複数の第1特徴点を一つずつ順次選択して、選択した第1特徴点に対応する前記第2撮像画像での第2エピポーラ線を求め、前記複数の第2特徴点から該第2エピポーラ線までの距離が最小となる第2特徴点を抽出して、該最小の距離を該選択した第1特徴点の距離誤差とし、各第1特徴点の距離誤差の総和を算出する総距離誤差算出処理を、前記仮カメラ運動を変更しながら繰り返し実行して、該距離誤差の総和が最小となる前記仮カメラ運動を求める仮カメラ運動最適化処理と、
    前記距離誤差の総和が最小となる仮カメラ運動を、前記カメラ運動として推定するカメラ運動推定処理と
    を実行することを特徴とする車両周辺監視装置。
  2. 車両に搭載されたカメラにより異なる時点で撮像された画像間での特徴点の変位に基づいて、前記カメラの姿勢及び位置の変化を示すカメラ運動を推定する車両運動推定部と、
    前記カメラによる撮像画像と前記カメラ運動とに基づいて、車両周囲に所在する対象物の位置を検知する対象物検知部と
    を備えた車両周辺監視装置において、
    前記車両運動推定部は、
    前記カメラにより異なる時点で撮像された第1撮像画像及び第2撮像画像について、該第1撮像画像から所定条件を満たす複数の第1特徴点を抽出すると共に、該第2撮像画像から該所定条件を満たす複数の第2特徴点を抽出する特徴点抽出処理と、
    前記第2撮像画像の撮像時におけるカメラ運動を想定した仮カメラ運動を設定し、前記複数の第1特徴点を一つずつ順次選択して、選択した第1特徴点に対応する前記第2撮像画像での第2エピポーラ線を求めると共に、前記複数の第2特徴点に対応する前記第1画像での第1エピポーラ線を求め、前記複数の第2特徴点のうち、該第2エピポーラ線との距離と、該選択した第1特徴点と該対応する第1エピポーラ線との距離の和が最小となる第2特徴点を抽出して、該最小となる距離の和を該選択した第1特徴点の距離誤差とし、各第1特徴点の距離誤差の総和を算出する処理を、前記仮カメラ運動を変更しながら繰り返し実行して、該距離誤差の総和が最小となる前記仮カメラ運動を求める仮カメラ運動最適化処理と、
    前記距離誤差の総和が最小となる仮カメラ運動を、前記カメラ運動として推定するカメラ運動推定処理と
    を実行することを特徴とする車両周辺監視装置。
  3. 車両に搭載されたカメラにより異なる時点で撮像された画像間での特徴点の変位に基づいて、前記カメラの視軸の変化を示すカメラ運動を推定するカメラ運動推定部と、
    前記カメラによる撮像画像と前記カメラ運動とに基づいて、車両周囲に所在する対象物の位置を検知する対象物検知部と
    を備えた車両周辺監視装置において、
    前記車両運動推定部は、
    前記カメラにより異なる時点で撮像された第1撮像画像及び第2撮像画像について、該第1撮像画像から所定条件を満たす複数の第1特徴点を抽出すると共に、該第2撮像画像から該所定条件を満たす複数の第2特徴点を抽出する特徴点抽出処理と、
    前記第2撮像画像の撮像時におけるカメラ運動を想定した仮カメラ運動を設定し、前記複数の第1特徴点を一つずつ順次選択して、選択した第1特徴点に対応する前記第2撮像画像での第2エピポーラ線を求め、該第2エピポーラ線の線上に前記第2特徴点が位置しているか否かを判断し、各第1特徴点のうち、対応する前記第2撮像画像での第2エピポーラ線の線上に前記第2特徴点が存在するものの個数である対特徴点数を算出する処理を、前記仮カメラ運動を変更しながら繰り返し実行して、該対特徴点数が最大となる前記仮カメラ運動を求める仮カメラ運動最適化処理と、前記対特徴点数が最大となる仮カメラ運動を、前記カメラ運動として推定するカメラ運動推定処理と
    を実行することを特徴とする車両周辺監視装置。
  4. 請求項1から請求項3のうちいずれか1項記載の車両周辺監視装置において、
    前記車両の挙動を検出する車両挙動検出部を備え、
    前記車両運動推定部は、前記車両の挙動に応じて、前記仮カメラ運動最適化処理における前記仮カメラ運動の初期値を決定することを特徴とする車両周辺監視装置。
  5. 請求項1から請求項4のうちいずれか1項記載の車両周辺監視装置において、
    前記車両運動推定部は、前記仮カメラ運動に対応する前記車両の移動方向に合わせて、前記仮カメラ運動の変更態様を決定することを特徴とする車両周辺監視装置。
  6. 請求項1から請求項5のうちいずれか1項記載の車両周辺監視装置において、
    前記対象物の移動量を検出する移動量検出部を備え、
    前記所定条件に、移動量が所定値以下であることが含まれていることを特徴とする車両周辺監視装置。
JP2010072222A 2010-03-26 2010-03-26 車両周辺監視装置 Expired - Fee Related JP5113867B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010072222A JP5113867B2 (ja) 2010-03-26 2010-03-26 車両周辺監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010072222A JP5113867B2 (ja) 2010-03-26 2010-03-26 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2011204111A JP2011204111A (ja) 2011-10-13
JP5113867B2 true JP5113867B2 (ja) 2013-01-09

Family

ID=44880673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010072222A Expired - Fee Related JP5113867B2 (ja) 2010-03-26 2010-03-26 車両周辺監視装置

Country Status (1)

Country Link
JP (1) JP5113867B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025863A (ja) * 2005-07-13 2007-02-01 Advanced Telecommunication Research Institute International 撮影システム、撮影方法及び画像処理プログラム
JP5121673B2 (ja) * 2007-11-06 2013-01-16 パナソニック株式会社 画像投影装置及び画像投影方法
JP5133783B2 (ja) * 2008-05-30 2013-01-30 アルパイン株式会社 車載装置
JP5107154B2 (ja) * 2008-06-23 2012-12-26 アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ 運動推定装置

Also Published As

Publication number Publication date
JP2011204111A (ja) 2011-10-13

Similar Documents

Publication Publication Date Title
JP4919036B2 (ja) 移動物体認識装置
JP5689907B2 (ja) 車両において通行物体位置検出を向上する方法
JP5083841B2 (ja) 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP4367475B2 (ja) 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP4899424B2 (ja) 物体検出装置
CN106981074B (zh) 用于估计相机相对于表面的取向的方法和装置
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4970926B2 (ja) 車両周辺監視装置
JP4631096B2 (ja) 車両周辺監視装置
US20170019657A1 (en) Stereo auto-calibration from structure-from-motion
JP6328327B2 (ja) 画像処理装置及び画像処理方法
JP2004354257A (ja) キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2010257377A (ja) 車両周辺監視装置
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP2015179066A (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2010003253A (ja) 運動推定装置
JP2013054399A (ja) 車両周辺監視装置
JP2004354256A (ja) キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2004235711A (ja) 対象物追跡システムおよび対象物追跡方法
JP5773334B2 (ja) オプティカルフロー処理装置及び表示半径マップ生成装置
JP5113867B2 (ja) 車両周辺監視装置
JP6241083B2 (ja) 撮像装置及び視差検出方法
JP5251460B2 (ja) 接近物体検出装置、接近物体検出プログラム、接近物体検出方法
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees