JP2013156769A - 運動推定装置及びプログラム - Google Patents

運動推定装置及びプログラム Download PDF

Info

Publication number
JP2013156769A
JP2013156769A JP2012015783A JP2012015783A JP2013156769A JP 2013156769 A JP2013156769 A JP 2013156769A JP 2012015783 A JP2012015783 A JP 2012015783A JP 2012015783 A JP2012015783 A JP 2012015783A JP 2013156769 A JP2013156769 A JP 2013156769A
Authority
JP
Japan
Prior art keywords
tracking
motion estimation
motion
structure pattern
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012015783A
Other languages
English (en)
Other versions
JP5811868B2 (ja
Inventor
Fumihiro Okumura
文洋 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2012015783A priority Critical patent/JP5811868B2/ja
Publication of JP2013156769A publication Critical patent/JP2013156769A/ja
Application granted granted Critical
Publication of JP5811868B2 publication Critical patent/JP5811868B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】運動推定の誤りを増やすことなく、計算量を削減することができる運動推定装置及びプログラムを提供する。
【解決手段】追跡部22、運動推定部24、及び構造パターン選択部26を備えている。追跡部22は、撮像部12から撮像時刻が異なる複数の画像を取得し、各画像上に、複数の追跡領域を設定し、複数の追跡領域内の画像を追跡して、複数の画像間での動きを追跡領域毎に算出する。運動推定部24は、運動推定アルゴリズムを用いて、追跡領域52の動きから自車両のヨーレート及びピッチレートを推定して出力する。構造パターン選択部26は、推定されたヨーレート及びピッチレートから、現在、自車両が走行している環境に近い構造パターンを選択する。また、構造パターン選択部26は、選択した現在の環境に適した構造パターンに対応した追跡領域52の配置を追跡部22に設定し、運動推定アルゴリズムを運動推定部24に設定する。
【選択図】図1

Description

本発明は、運動推定装置及びプログラムに係り、特に、移動体の運動を推定する運動推定装置及びプログラムに関する。
従来より、車両等の移動体の運動を推定する装置として、移動体に設置されたカメラ等の撮像装置で撮像された画像を用いて、当該移動体の運動を推定する方法が知られている。
例えば、特許文献1には、カメラの運動を推定する際に、異なる時刻で撮影された2枚の画像から特徴点の動きを算出し、所定の平面を仮定した状態で、特徴点の動きから移動体の運動を推定する技術が記載されている。
また、特許文献2には、道路に沿って存在する構造物を画像上の双曲線で近似し、左右の双曲線の漸近線の交点から、道路の消失点、及び構造物に対する車両の位置・姿勢を推定する技術が記載されている。
特許第3843119号公報 特開平8−159716号公報
しかしながら上記の特許文献1に記載の技術では、多段階の運動算出によって計算量が大きくなるという問題がある。また、特徴点の動き算出ステップでは、どの特徴点が正しく追跡できているか分からないため、十分に多くの特徴点を追跡する必要があり、このことからも計算量が多くなってしまうという問題がある。
また、上記の特許文献2に記載の技術では、画像上からの構造物の検出の計算量は小さくなく、かつ、双曲線の当てはめを行うためには、多数の構造物を検出する必要があるという問題がある。
本発明は、上記の問題点を解決するためになされたものであり、運動推定の誤りを増やすことなく、計算量を削減することができる運動推定装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の運動推定装置は、移動体の外部を異なる時間に撮像した複数の画像の各々に対して、複数の追跡領域を設定し、前記複数の追跡領域内の画像を追跡して、前記複数の画像間での動きを前記複数の追跡領域毎に算出する追跡手段と、前記追跡手段で算出した前記複数の追跡領域毎の動きから、前記移動体の運動を運動推定アルゴリズムを用いて推定する運動推定手段と、前記複数の追跡領域毎の動きと、前記運動推定手段で推定された前記移動体の運動と、に基づいて、現在の環境の三次元構造に適した構造パターンを、記憶手段に記憶されている環境の三次元構造を近似した構造パターンから選択する選択手段と、記憶手段に記憶されている構造パターンと、前記複数の追跡領域の画像上での位置及び前記運動推定アルゴリズムと、の対応関係から、前記選択手段により選択された現在の環境の三次元構造に適した構造パターンに応じた前記複数の追跡領域の画像上での位置を前記追跡手段に設定し、かつ前記運動推定アルゴリズムを前記運動推定手段に設定する、設定手段と、を備える。
追跡手段は、移動体の外部を異なる時間に撮像した複数の画像の各々に対して、複数の追跡領域を設定する。また、複数の追跡領域内の画像を追跡して、複数の画像間での動きを複数の追跡領域毎に算出する。
運動推定手段は、追跡手段で算出した複数の追跡領域毎の動きから、移動体の運動を運動推定アルゴリズムを用いて推定する。
予め記憶手段には、環境の三次元構造を近似した構造パターン、及び構造パターンと、複数の追跡領域の画像上での位置及び運動推定アルゴリズムと、の対応関係が記憶されている。
選択手段は、複数の追跡領域毎の動きと、運動推定手段で推定された移動体の運動と、に基づいて、移動体が存在する現在の環境の三次元構造に適した構造パターンを、記憶手段に記憶されている環境の三次元構造を近似した構造パターンから選択する。
設定手段は、記憶手段に記憶されている構造パターンと、複数の追跡領域の画像上での位置及び運動推定アルゴリズムと、の対応関係から、選択手段により選択された現在の環境の三次元構造に適した構造パターンに応じた複数の追跡領域の画像上での位置を追跡手段に設定し、かつ運動推定アルゴリズムを運動推定手段に設定する。
このような構成とすることで、環境の三次元構造をいくつかの構造パターンに分類し、各構造パターンに応じて運動推定アルゴリズムを設定することで、撮像手段で撮像した画像から、移動体の運動を推定する際の計算量を削減することができる。また、環境の三次元構造を仮定することで、追跡時の誤りが発生しづらい場所に追跡領域を設定することができるため、追跡領域の数を従来技術と比較して減らすことができる。さらに、運動推定アルゴリズムを簡略化することができる。従って、運動推定の誤りを増やすことなく、計算量を削減することができる。
本発明係る構造パターンは、走路の形状、及び対向車線の有無の組み合わせで表現することができる。
本発明に係る運動推定手段は、前記移動体のヨー回転運動及びピッチ回転運動を推定するようにすることができる。このようにロール回転運動については推定しないようにすることにより、計算量をより削減することができる。
本発明に係る選択手段は、前記複数の追跡領域毎の動き、及び前記運動推定手段で推定された前記移動体の運動に基づいて、現在の構造パターンを選択するようにすることができる。
本発明に係る運動推定手段は、信頼度が高い前記追跡領域を用いて前記移動体の運動を推定することが好ましい。信頼度が低い追跡領域を用いないことにより、より移動体の運動推定の誤りを減らすことができる。
本発明に係る選択手段は、信頼度が高い前記追跡領域を用いて現在の構造パターンを選択することが好ましい。信頼度が低い追跡領域を用いないことにより、より現在の環境に適した構造パターンを選択することができるようになる。
また、本発明のプログラムは、コンピュータを、移動体の外部を異なる時間に撮像した複数の画像の各々に対して、複数の追跡領域を設定し、前記複数の追跡領域内の画像を追跡して、前記複数の画像間での動きを前記複数の追跡領域毎に算出する追跡手段と、前記追跡手段で算出した前記複数の追跡領域毎の動きから、前記移動体の運動を運動推定アルゴリズムを用いて推定する運動推定手段と、前記複数の追跡領域毎の動きと、前記運動推定手段で推定された前記移動体の運動と、に基づいて、現在の環境の三次元構造に適した構造パターンを、記憶手段に記憶されている環境の三次元構造を近似した構造パターンから選択する選択手段と、憶手段に記憶されている構造パターンと、前記複数の追跡領域の画像上での位置及び前記運動推定アルゴリズムと、の対応関係から、前記選択手段により選択された現在の環境の三次元構造に適した構造パターンに応じた前記複数の追跡領域の画像上での位置を前記追跡手段に設定し、かつ前記運動推定アルゴリズムを前記運動推定手段に設定する、設定手段として機能させるためのものである。
以上説明したように、運動推定の誤りを増やすことなく、計算量を削減することができるという効果が得られる。
本実施の形態に係る運動推定装置の一例の概略構成を示すブロック図である。 本実施の形態に係る撮像部で撮像された画像上における追跡領域を説明するための説明図であり、追跡領域が均等配置されている場合を示している。 本実施の形態に係る撮像部で撮像された画像上における追跡領域を説明するための説明図であり、追跡領域が偏り配置(右側が疎)されている場合を示している。 本実施の形態に係る運動推定処理の流れの一例を示したフローチャートである。 本実施の形態に係る運動推定処理ルーチンの一例である。 本実施の形態に係るヨーレート・ピッチレート算出処理ルーチンの一例である。 本実施の形態に係る構造パターン選択処理ルーチンの一例である。 本実施の形態に係る対向車線有無判定処理ルーチンの一例である。 本実施の形態に係るカーブ路判定処理ルーチンの一例である。 本実施の形態に係る記憶部に予め記憶されている構造パターンと、追跡領域52の配置と、運動推定アルゴリズムとの対応関係の具体的一例である。
以下、各図面を参照して本実施の形態の一例について説明する。なお、車両に搭載された運動推定装置に本発明を適用した場合を例に説明する。
まず、本実施の形態の運動推定装置の概略構成について説明する。本実施の形態の運動推定装置の一例の概略構成を示すブロック図を図1に示す。
本実施の形態の運動推定装置10は、撮像部12、記憶部14、及びコンピュータ20を備えている。
撮像部12は、自車両の前方を含む周辺領域を撮像し、画像信号を生成するカメラ(図示省略)と、カメラで生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。なお、撮像部12は、台数や画角については特に限定されるものではなく、任意の構成としてよい。また、撮像部12によって出力される画像は、濃淡画像及びカラー画像の何れであってもよい。運動量を適切に推定できる場所であれば、設置場所、画角、波長、及び設置個数については問わない。
記憶部14は、環境の三次元構造を近似した構造パターンと、追跡領域52の位置(配置)と、運動推定アルゴリズムと、の対応関係(図10参照、詳細後述)等を、予め記憶する機能を有している。本実施の形態の記憶部14は、不揮発性の記憶媒体であれば特に限定されるものではない。
コンピュータ20は、運動推定装置10全体を制御するCPU、ROM、及びRAM等(いずれも図示省略)により構成される。CPUは、予め定められた運動推定プログラム(詳細後述)に従ってデジタル演算処理を実行する機能を有する。RAMは、CPUで運動推定プログラム等のプログラムを実行する際の作業用の領域を確保するものである。ROMは、CPUでの処理に使用される各種設定値等や運動推定プログラム等が格納される。本実施の形態では、当該運動推定プログラムがCPUにより実行されることにより、詳細を後述する運動推定処理が行われる。なお、本実施の形態では、運動推定プログラムは、予め格納されている構成としているがこれに限らず、外部装置(図示省略)からROMにインストールされるように構成してもよい。また、インターネット等のネットワークを介して伝送された運動推定プログラムがROMにインストールされるように構成してもよい。さらにまた、フラッシュメモリ、USB等の外部記録媒体からROMにインストールされるように構成してもよい。
コンピュータ20では、撮像部12で撮像された画像から自車両の運動を推定し、推定した運動を出力する機能を有している。そのため、本実施の形態のコンピュータ20をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、追跡部22、運動推定部24、及び構造パターン選択部26を備えている。
追跡部22は、撮像部12から撮像時刻が異なる複数の画像を取得し、各画像上に、複数の追跡領域を設定し、複数の追跡領域内の画像を追跡して、複数の画像間での動きを追跡領域毎に算出する機能を有している。
本実施の形態の追跡領域の具体的例を図2及び図3に示す。図2は、撮像部12で撮像された画像50上に4個の追跡領域52(52〜52)が均等に(等間隔に)配置された具体的一例を示している。また、図3は、撮像部12で撮像された画像50上に4個の追跡領域52(52〜52)が右側が疎になるように偏り配置された具体的一例を示している。なお、自車両の運転手の右側に当たる方を、画像50の右側としている。
図2、図3に示した何れの場合においても、追跡領域52の画像50上での縦方向の位置は、予め定められた位置、あるいは地図情報や車載センサ情報から設定された水平線上の位置に配置されている。一方、横方向の位置は、初期状態(例えば、後述の運動推定処理開始時)では、均等配置、または予め定められた配置としている。また、後述の運動推定処理の開始後は、構造パターン選択部26の選択結果に応じて、左右のいずれかが疎になるように偏り配置または、均等配置としている。なお、本実施の形態では、このように追跡領域52を水平方向に並べて配置しているが、車両は平面を走っているため、水平方向を追跡すれば十分である。
偏り配置の場合の追跡領域の位置は、画像50の横方向をX軸、縦方向をY軸、画像50の中心の座標を(cx、cy)、画像50の幅をw、及び撮像部12のカメラの焦点距離をfとし、画像50上に、N個(図3ではN=4)の追跡領域52を配置する場合、i番目(i=0〜N−1)の点の横座標x_iは、以下の(1)式及び(2)式により算出される。
t=i/(N−1) ・・・(1)
x_i=(k1×t×t+k2×t+k3)×w+cx ・・・(2)
上記(2)式のk1、k2、k3により、追跡領域52の偏った配置が定められる。k1の符号により、偏り方が左右のいずれで有るかが決まる。k1が正(+)の場合は、右側が疎、左側が密になり、k1が負(−)の場合は、右側が密、左側が疎に偏る。またk1=0の場合は、上記(2)式は、tに対する1次式となり、追跡領域52が均等配置された場合と同様になる。また、k2により追跡領域52同士の間隔が決まる。
追跡部22は、このように配置された複数の追跡領域52毎に、撮像時刻が異なる複数の画像50間での動きを算出する。画像間での動きの算出の仕方は、一般に行われている手法を適用すればよい。例えば、追跡領域52内の画像上で追跡しやすい特徴点を複数抽出し、各画像50上における対応する追跡領域52内の画像間で、対応する特徴点を追跡し、対応する特徴点の動きを算出するようにする方法が挙げられる。
なお、追跡領域52内の予め定められた点や、ランダムに選択した点を追跡してもかまわない。これは、構造パターンを仮定して設定された追跡領域内には追跡に適した特徴(コーナーやエッジ)が多く存在することが期待できるため、追跡しやすい特徴点を検出せずとも信頼性の高い追跡が期待できるためである。
運動推定部24は、運動推定アルゴリズムを用いて、追跡部22で算出した追跡領域52の動きから自車両の運動を推定して出力する機能を有している。なお、本実施の形態としては、自車両の運動として、ヨー回転速度(ヨーレート)及びピッチ回転速度(ピッチレート)を推定結果として出力している。
本実施の形態の運動推定部24では、ヨーレートとピッチレートとを別々に算出している。ヨーレートは、各追跡領域52の横方向(X軸方向)の変位量に基づいて算出される。また、ピッチレートは、各追跡領域52の縦方向(Y軸方向)の変位量に基づいて算出される。本実施の形態では、各追跡領域52の画像の変位量をカメラの回転量に変換し、カメラの回転量を自車両の回転量(運動)として推定している。なお、運動推定アルゴリズムとして、ヨーレート及びピッチレートの算出にあたり、各追跡領域52の変位量の中央値を用いるか重み付平均を用いるかが設定されている。
また、本実施の形態の運動推定部24は、追跡領域52の信頼度Rを算出し、算出した信頼度Rに基づいて、自車両の運動を推定するのに用いる追跡領域52を決定する機能を有している。信頼度Rの算出方法は、特に限定されず、一般的な手法を用いればよい。以下に、本実施の形態で用いた具体的手法について説明する。
本実施の形態では、追跡領域52の信頼度Rは、追跡時の誤差から算出される信頼度R_errorと、ヨーレート及びピッチレートから算出される信頼度R_flowと、の重み付き和で算出される。
信頼度R_errorは、点の追跡を行った際の追跡点近傍の画像の輝度差を追跡誤差Eとして、追跡誤差Eの逆数を信頼度R_errorとして算出する。誤差Eは、追跡領域52の画像I_0上の点(x、y)を画像I_1で追跡した結果の変位量が(dx、dy)であった場合、追跡時のウインドウサイズをwとすると、以下の(3)式により算出される。
・・・(3)
さらに、信頼度R_errorは、以下の(4)式で算出される。なお、(4)式中のeは、0除算を防止するための小さな値である。
R_error=1(E+e) ・・・(4)
また、信頼度R_flowは、i番目の追跡領域52で推定されたX軸方向の変位量をVi_x、及びY軸方向の変位量をVi_yとし、推定されたヨーレート及びピッチレートから後述の(5)式の関係を用いて算出される追跡領域52画像上での変位量をそれぞれM_x、M_yとした場合、以下の疑似コードにより算出される。
R_flow=const.
if(|Vi_x|>scale0){R_flow=R_flow−w;}
if(|Vi_y|>scale1){R_flow=R_flow−w;}
なお、上記擬似コードにおいてscale0及びscale1は、ヨーレート及びピッチレートからの外れ値を許容する範囲を制限するパラメータであり、正の値であるwは、外れ値に対する信頼度のペナルティである。
このようにして得られた信頼度R_errorと信頼度R_flowとの重み付き和として信頼度Rを算出する。また、信頼度Rが予め定められた閾値よりも低い追跡領域52は、予め定められたフレーム数の間、運動推定処理には用いないようにしている。すなわち、信頼度Rが閾値以上(信頼度が高い)の追跡領域52を運動推定処理に用いる追跡領域52として決定している。なお、後述の構造パターン選択処理においても、信頼度Rが閾値以上の追跡領域52を用い、信頼度Rが閾値未満(信頼度が低い)の追跡領域52は用いないことが好ましい。
また、本実施の形態の構造パターン選択部26は、運動推定部24により推定されたヨーレート及びピッチレートから、現在、自車両が走行している環境に近い構造パターンを選択する機能を有している。本実施の形態では、構造パターンの具体的例として、対向車線の有無、及び走路の形状(カーブ路・直線路)について選択している。
また、構造パターン選択部26は、選択した現在の環境に適した構造パターンに対応した追跡領域52の位置(配置)を記憶部14から取得し、追跡部22に設定すると共に、記憶部14から運動推定アルゴリズムを取得して運動推定部24に設定する。
次に、本実施の形態の運動推定装置10のコンピュータ20で実行される運動推定処理について説明する。本実施の形態に係る運動推定処理全体の流れの一例のフローチャートを図4に示す。
ステップ100では、異なる時刻(タイミング)で撮像部12によって撮像された複数の画像50を取得する。次のステップ102では、追跡部22により、上述したように追跡領域52毎に画像間の動き(変位量)を算出する。
次のステップ104では、運動推定部24により、運動推定アルゴリズムを用いて、追跡領域52毎の変位量から運動(ヨーレート及びピッチレート)を推定する運動推定処理を実行する。当該ステップ104は、図5に一例を示した運動推定処理ルーチンによって実現される。
まずステップ200では、上述したように信頼度Rを算出し、次のステップ202では、算出された信頼度Rに基づいて、使用数抵抗素子R追跡領域52を決定する。次のステップ204では、設定されている運動推定アルゴリズムを取得する。なお、本実施の形態では、初期状態の場合では、予め定められた運動推定アルゴリズムが設定されているものとしている。
次のステップ206では、ヨーレート算出処理を実行して、取得した運動推定アルゴリズムに基づいてヨーレートを算出し、さらに次のステップ208では、ピッチレート算出処理を実行して、取得した運動推定アルゴリズムに基づいてピッチレートを算出する。ヨーレート算出処理、及びピッチレート算出処理は、ヨーレートは各追跡領域52の横方向(X軸方向)の変位量に基づいて算出し、ピッチレートは各追跡領域52の縦方向(Y軸方向)の変位量に基づいて算出する他、略同様の処理であるため、ここでは一緒に説明する。
ステップ206のヨーレート算出処理、及びステップ208のピッチレート算出処理は、図6に一例を示したヨーレート・ピッチレート算出処理ルーチンによって実現される。まず、ステップ300では、取得した運動推定アルゴリズムが中央値であるか、重み付き平均であるかを判断する。中央値の場合は、ステップ302へ進み、重み付き平均の場合は、ステップ306へ進む。
運動推定アルゴリズムが中央値の場合は、ステップ302では、全ての追跡領域52の変位量から中央値mを算出する。次のステップ304では、カメラの画角とフレームレートpsと、から画像上での変位量(ここでは、中央値m)を、以下の(5)式を用いて回転速度vに変換する。
v=変位量(m)×atan(w/2/f)/fps ・・・(5)
一方、運動推定アルゴリズムが重み付き平均の場合は、ステップ306では、全ての追跡領域52の変位量をソートする。次のステップ308では、中央値mを含む、M個(予め定められた数)の変位量の平均値maveを算出する。次のステップ310では、カメラの画角とフレームレートpsと、から画像上での変位量(ここでは、平均値mave)を、上述の(5)式を用いて回転速度vに変換する。
このように、画像の変位量(中央値mまたは平均値mave)をカメラの回転量に変換し、カメラの回転量を自車両の回転量(ヨーレート・ピッチレート)として推定した後、本処理を終了し、図5に示したステップ210へ進む。ステップ210では、推定したヨーレート及びピッチレートを出力した後、本処理を終了し、図4に示したステップ106へ進む。
ステップ106では、構造パターン選択部26により、追跡部22で算出された追跡領域52毎の動きの分布と、運動推定部24で推定されたヨーレート及びピッチレートに基づいて、現在自車両が走行質得る環境に近い構造パターンを選択する構造パターン選択処理を実行する。当該ステップ106は、図7に一例を示した構造パターン選択処理ルーチンによって実現される。
まずステップ400では、図8に一例を示した対向車線有無判定処理ルーチンによって実現される、対向車線の有無を判定する対向車線有無判定処理を実行する。さらに、次のステップ402では、図9に一例を示したカーブ路判定処理ルーチンによって実現される、カーブ路及び直線路のいずれであるかを判定するカーブ路判定処理を実行する。
これらの判定処理において、i番目の追跡領域52から算出されたX軸方向及びY軸方向の変位量をそれぞれVi_x、Vi_yとする。なお、日本の場合、車両は左側通行であるため、i=N/2〜N−1番目の追跡領域52は、画像50上で対向車線を含む領域に設定された追跡領域52とし、反対側を歩道を含む領域に設定されたとしている。以降では、説明の簡略化のため、前者を右側領域、後者を左側領域と称する。
右側領域及び左側領域のそれぞれにおける追跡領域52の変位量の平均(左側:LeftAve、右側:RightAve)と、分散(左側:LeftStdev、右側:RightStdev)を算出する。また、現在のヨーレートから、上記(5)式を用いて、画像中央での変位量(変位量V)を逆算する。
これらの判定処理に用いる閾値の意味と値の算出方法は、以下の用になっている。
閾値th1=(|LeftAve−V|+|RightAve−V|)/2)
閾値th2=事前に予め定められた値
閾値th3=事前に予め定められた値
対向車線有無判定処理について図8を参照して説明する。ステップ500では、上述したようにLeftStdev、RightStdev、及び閾値th1を算出する。次のステップ502では、RightStdev−LeftStdev>th1を満たしているか否かを判断する。対向車線が有る場合、右側領域の方が左側領域に比べて変位量が大きく、右側領域の分散が大きくなる。そこで、条件を満たしている場合は、ステップ504へ進み、対向車線有りと判定し、満たしていない場合は、ステップ506へ進み、対向車線無しと判定して本処理を終了する。
さらに、カーブ路判定処理について図9を参照して説明する。ステップ600では、上述したように変位量Vを算出する。次のステップ602では、|V|>th2を満たしているか否かを判断する。カーブ路である場合、ヨー・ピッチが発生するため、画像全体に変位が生じる。そこで、条件を満たしていない場合(画像全体の変位量が少ない場合)は、ステップ608へ進み、直線路であると判定する。一方、条件を満たしている場合は、ステップ604へ進む。
ステップ604では、|RightAve−LeftAve|>th3を満たしているか否かを判断する。すなわち、画像全体に生じている変位が、カーブに起因するものであるか、例えば坂道等、走路の上下変動に起因するものであるかを判断する。条件を満たしている場合は、ステップ606へ進み、カーブ路であると判定し、条件を満たしていない場合は、ステップ608へ進み、直線路であると判定して本処理を終了する。
このようにして図4のステップ106の構造パターン選択処理により自車両が現在走行している環境の構造パターンが選択されると、次のステップ108に進む。ステップ108では、記憶部14に記憶されている構造パターンと、追跡領域52の配置と、運動推定アルゴリズムとの対応関係に基づいて、選択された構造パターンに応じた追跡領域52の配置を追跡部22に設定し、さらに次のステップ110では、選択された構造パターンに応じた運動推定アルゴリズムを運動推定部24に設定した後、ステップ100にリターンする。本実施の形態における、構造パターンと、追跡領域52の配置と、運動推定アルゴリズムとの対応関係の具体的一例を図10に示す。
本処理により、構造パターン選択部26によって、追跡領域52及び運動推定アルゴリズムが設定されることにより、次回からは、追跡部22では、設定された配置における追跡領域52内の画像を追跡して、複数の画像間での動きを追跡領域毎に算出する。また、運動推定部24では、設定された運動推定アルゴリズムにより自車両の運動を推定する。
以上説明したように、本実施の形態の運動推定装置10は、追跡部22、運動推定部24、及び構造パターン選択部26を備えている。追跡部22は、撮像部12から撮像時刻が異なる複数の画像を取得し、各画像上に、複数の追跡領域を設定し、複数の追跡領域内の画像を追跡して、複数の画像間での動きを追跡領域毎に算出する。運動推定部24は、運動推定アルゴリズムを用いて、追跡領域52の動きから自車両のヨーレート及びピッチレートを推定して出力する。構造パターン選択部26は、推定されたヨーレート及びピッチレートから、現在、自車両が走行している環境に近い構造パターン(対向車線の有無及び走路の形状)を選択する。また、構造パターン選択部26は、選択した現在の環境に適した構造パターンに対応した追跡領域52の配置を追跡部22に設定し、運動推定アルゴリズムを運動推定部24に設定する。
このように構造パターン選択部26で構造パターンを選択することにより、現在の自車両が走行中の環境における構造パターンを仮定しているため、追跡時の誤りが発生しづらい場所に追跡領域52を設定することができるため、追跡領域52の数を従来技術と比較して減らすことができる。従って、運動推定の誤りを増やすことなく、計算量を削減することができる。
また、本実施の形態では、運動推定部24では、ヨーレート及びピッチレートを推定しており、ローレートについては推定してない。これにより、運動の算出速度を高速化することができると共に、より計算量を削減することができる。
また、本実施の形態では、運動推定部24及び構造パターン選択部26は、各々の各処理において、信頼度Rが低い追跡領域52を用いず、信頼度Rが高い追跡領域52のみを使用している。これにより、より運動推定の誤りを減らすことができる。
なお、本実施の形態では、構造パターンを対向車線の有無、及び走路形状(カーブ路・直線路)の組み合わせで表現しているがこれに限らない。自車両の近くまたは遠くに障害物が有るか否かを判断することができるものならばよく、ガードレールや中央分離帯等、路側物等の有無、車線数等を用いて表現してもよい。
また、本実施の形態では、構造パターン選択部26が構造パターンを選択すると共に、追跡部22への追跡領域52の配置の設定、及び運動推定部24への運動推定アルゴリズムの設定を行っているがこれに限らず、構造パターンの選択機能と、追跡領域52及び運動推定アルゴリズムの設定機能とを別個のものとして構成してもよい。
なお、本実施の形態で説明した運動推定装置10、コンピュータ20等の構成、運動推定処理等の各処理の流れ等は一例であり、本発明の主旨を逸脱しない範囲内において状況に応じて変更可能であることは言うまでもない。
10 運動推定装置
12 撮像部
14 記憶部
20 コンピュータ
22 追跡部
24 運動推定部
26 構造パターン選択部

Claims (7)

  1. 移動体の外部を異なる時間に撮像した複数の画像の各々に対して、複数の追跡領域を設定し、前記複数の追跡領域内の画像を追跡して、前記複数の画像間での動きを前記複数の追跡領域毎に算出する追跡手段と、
    前記追跡手段で算出した前記複数の追跡領域毎の動きから、前記移動体の運動を運動推定アルゴリズムを用いて推定する運動推定手段と、
    前記複数の追跡領域毎の動きと、前記運動推定手段で推定された前記移動体の運動と、に基づいて、現在の環境の三次元構造に適した構造パターンを、記憶手段に記憶されている環境の三次元構造を近似した構造パターンから選択する選択手段と、
    記憶手段に記憶されている構造パターンと、前記複数の追跡領域の画像上での位置及び前記運動推定アルゴリズムと、の対応関係から、前記選択手段により選択された現在の環境の三次元構造に適した構造パターンに応じた前記複数の追跡領域の画像上での位置を前記追跡手段に設定し、かつ前記運動推定アルゴリズムを前記運動推定手段に設定する、設定手段と、
    を備えた、運動推定装置。
  2. 構造パターンを、走路の形状、及び対向車線の有無の組み合わせで表現する、請求項1に記載の運動推定装置。
  3. 前記運動推定手段は、前記移動体のヨー回転運動及びピッチ回転運動を推定する、請求項1または請求項2に記載の運動推定装置。
  4. 前記選択手段は、前記複数の追跡領域毎の動き、及び前記運動推定手段で推定された前記移動体の運動に基づいて、現在の構造パターンを選択する、請求項1から請求項3のいずれか1項に記載の運動推定装置。
  5. 前記運動推定手段は、信頼度が高い前記追跡領域を用いて前記移動体の運動を推定する、請求項1から請求項4のいずれか1項に記載の運動推定装置。
  6. 前記選択手段は、信頼度が高い前記追跡領域を用いて現在の構造パターンを選択する、請求項1から請求項5のいずれか1項に記載の運動推定装置。
  7. コンピュータを、
    移動体の外部を異なる時間に撮像した複数の画像の各々に対して、複数の追跡領域を設定し、前記複数の追跡領域内の画像を追跡して、前記複数の画像間での動きを前記複数の追跡領域毎に算出する追跡手段と、
    前記追跡手段で算出した前記複数の追跡領域毎の動きから、前記移動体の運動を運動推定アルゴリズムを用いて推定する運動推定手段と、
    前記複数の追跡領域毎の動きと、前記運動推定手段で推定された前記移動体の運動と、に基づいて、現在の環境の三次元構造に適した構造パターンを、記憶手段に記憶されている環境の三次元構造を近似した構造パターンから選択する選択手段と、
    記憶手段に記憶されている構造パターンと、前記複数の追跡領域の画像上での位置及び前記運動推定アルゴリズムと、の対応関係から、前記選択手段により選択された現在の環境の三次元構造に適した構造パターンに応じた前記複数の追跡領域の画像上での位置を前記追跡手段に設定し、かつ前記運動推定アルゴリズムを前記運動推定手段に設定する、設定手段
    として機能させるためのプログラム。
JP2012015783A 2012-01-27 2012-01-27 運動推定装置及びプログラム Expired - Fee Related JP5811868B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012015783A JP5811868B2 (ja) 2012-01-27 2012-01-27 運動推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012015783A JP5811868B2 (ja) 2012-01-27 2012-01-27 運動推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2013156769A true JP2013156769A (ja) 2013-08-15
JP5811868B2 JP5811868B2 (ja) 2015-11-11

Family

ID=49051898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012015783A Expired - Fee Related JP5811868B2 (ja) 2012-01-27 2012-01-27 運動推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5811868B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016020718A1 (en) * 2014-08-07 2016-02-11 Hitachi Automotive Systems, Ltd. Method and apparatus for determining the dynamic state of a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973545A (ja) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd 白線認識装置
JP2002352249A (ja) * 2001-05-23 2002-12-06 Toshiba Corp 画像処理装置及びその方法
JP2006338272A (ja) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd 車両挙動検出装置、および車両挙動検出方法
JP2010231254A (ja) * 2009-03-25 2010-10-14 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973545A (ja) * 1995-09-07 1997-03-18 Fujitsu Ten Ltd 白線認識装置
JP2002352249A (ja) * 2001-05-23 2002-12-06 Toshiba Corp 画像処理装置及びその方法
JP2006338272A (ja) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd 車両挙動検出装置、および車両挙動検出方法
JP2010231254A (ja) * 2009-03-25 2010-10-14 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016020718A1 (en) * 2014-08-07 2016-02-11 Hitachi Automotive Systems, Ltd. Method and apparatus for determining the dynamic state of a vehicle

Also Published As

Publication number Publication date
JP5811868B2 (ja) 2015-11-11

Similar Documents

Publication Publication Date Title
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
US11209284B2 (en) System and method for creating driving route of vehicle
US9721460B2 (en) In-vehicle surrounding environment recognition device
JP5075672B2 (ja) 対象物検出装置及び方法
US10132919B2 (en) Object detecting device, radar device, and object detection method
JP5776795B2 (ja) 立体物検出装置
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
JP2010257377A (ja) 車両周辺監視装置
JP2011180982A (ja) 区画線検出装置
JP5874831B2 (ja) 立体物検出装置
JP2010244194A (ja) 物体識別装置
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP2012159469A (ja) 車両用画像認識装置
JP5548212B2 (ja) 横断歩道標示検出方法および横断歩道標示検出装置
JP2009245042A (ja) 交通流計測装置及びプログラム
JP2012159470A (ja) 車両用画像認識装置
KR101568683B1 (ko) 영상 분석을 이용한 차간 거리 추정 방법 및 그 장치
Nambi et al. FarSight: a smartphone-based vehicle ranging system
JP5811868B2 (ja) 運動推定装置及びプログラム
JP6488226B2 (ja) 走路パラメータ推定装置及びプログラム
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP5903901B2 (ja) 車両位置算出装置
JP2020166758A (ja) 画像処理装置および画像処理方法
JP6416654B2 (ja) 白線検出装置
JP2008282106A (ja) 障害物検出方法および障害物検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150907

R150 Certificate of patent or registration of utility model

Ref document number: 5811868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees