JP2010157093A - 運動推定装置及びプログラム - Google Patents

運動推定装置及びプログラム Download PDF

Info

Publication number
JP2010157093A
JP2010157093A JP2008334950A JP2008334950A JP2010157093A JP 2010157093 A JP2010157093 A JP 2010157093A JP 2008334950 A JP2008334950 A JP 2008334950A JP 2008334950 A JP2008334950 A JP 2008334950A JP 2010157093 A JP2010157093 A JP 2010157093A
Authority
JP
Japan
Prior art keywords
feature
feature points
motion estimation
points
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008334950A
Other languages
English (en)
Other versions
JP5262705B2 (ja
Inventor
Koichiro Yamaguchi
晃一郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008334950A priority Critical patent/JP5262705B2/ja
Publication of JP2010157093A publication Critical patent/JP2010157093A/ja
Application granted granted Critical
Publication of JP5262705B2 publication Critical patent/JP5262705B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】安定して移動体の運動を精度よく推定することができるようにする。
【解決手段】特徴点抽出部22によって、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出し、特徴点特徴量算出部24によって、抽出された特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する。対応点検索部26によって、算出された特徴点の各々の特徴量に基づいて、複数の画像間で対応した特徴点を検索する。特徴ベクトル生成部28によって、各特徴点について、該特徴点の周辺に存在する特徴点の特徴量に基づいて、特徴ベクトルを生成する。判定部32によって、特徴点の各々について、インライアであるか否かを判定する。運動推定部34によって、インライアと判定された対応した特徴点に基づいて、複数の画像を撮像したときの移動体の運動を推定する。
【選択図】図1

Description

本発明は、運動推定装置及びプログラムに係り、特に、移動体の運動を推定する運動推定装置及びプログラムに関する。
従来より、撮像手段の相対的な位置および姿勢を特定する移動体周辺監視装置が知られている(特許文献1)。この移動体周辺監視装置では、画像から特定平面上にある4点以上の特徴点を抽出し、それらの特徴点を追跡して、2枚の画像平面での特徴点の座標値に基づき、位置姿勢を計算している。
また、撮像装置の位置姿勢を算出する位置姿勢計測装置が知られている(特許文献2)。この位置姿勢計測装置における位置姿勢の算出は、物体上に配置または設定された指標を撮像画像から検出することにより行っている。このとき、誤検出や精度の低い指標の影響を軽減するため、連続的に検出されている指標の信頼度が高くなるよう設定し、その信頼度を用いて位置姿勢の算出を行っている。
特開2004−198211号公報 特開2008−134161号公報
しかしながら、上記の特許文献1に記載の技術では、同一平面上にある4点の対応点を検出することで撮像装置の位置関係を計算しているが、撮像した画像についての知識がない場合、同一平面上にある4点を検出することが困難である、という問題がある。
また、上記の特許文献2に記載の技術では、誤検出の影響を軽減するように信頼度を設定しているが、信頼度は検出の時間的連続性に基づいているため、指標が移動物体上に存在するような場合には対応することができない、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、安定して移動体の運動を精度よく推定することができる運動推定装置及びプログラムを提供することを目的とする。
上記の目的を達成するために第1の発明に係る運動推定装置は、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段と、前記特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量に基づいて、該特徴点が信頼できるか否か、又は該特徴点がどれだけ信頼できるかを示す信頼度を判定する判定手段と、前記判定手段による判定結果、及び前記検索手段によって検索された前記対応した特徴点に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段とを含んで構成されている。
第2の発明に係るプログラムは、コンピュータを、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段、前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段、前記特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量に基づいて、該特徴点が信頼できるか否か、又は該特徴点がどれだけ信頼できるかを示す信頼度を判定する判定手段、及び前記判定手段による判定結果、及び前記検索手段によって検索された前記対応した特徴点に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段として機能させるためのプログラムである。
第1の発明及び第2の発明によれば、特徴点抽出手段によって、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出し、特徴量算出手段によって、特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する。検索手段によって、特徴量算出手段によって算出された特徴点の各々の特徴量に基づいて、複数の画像間で対応した特徴点を検索する。
そして、判定手段によって、特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量に基づいて、該特徴点が信頼できるか否か、又は該特徴点がどれだけ信頼できるかを示す信頼度を判定する。運動推定手段によって、判定手段による判定結果、及び検索手段によって検索された対応した特徴点に基づいて、複数の画像を撮像したときの移動体の運動を推定する。
このように、抽出された特徴点の各々が信頼できるか否か又は信頼度を判定し、判定結果を用いて、移動体の運動を推定することにより、安定して移動体の運動を精度よく推定することができる。
第1の発明に係る判定手段は、特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量の分布に基づいて、該特徴点が信頼できるか否か、又は該特徴点の信頼度を判定することができる。
また、第1の発明に係る判定手段は、予め用意された複数の学習用画像から得られる、複数の学習用画像間で対応した複数の特徴点、複数の特徴点の各々の特徴量、及び複数の特徴点の各々の周辺に存在する特徴点の特徴量の分布と、複数の特徴点の各々について予め求められた信頼できるか否か又は信頼度とに基づいて、特徴量の分布と、信頼できるか否か又は信頼度との関係を予め学習した学習結果に基づいて、特徴点の各々について、該特徴点が信頼できるか否か、又は該特徴点の信頼度を判定することができる。
第1の発明に係る判定手段は、特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量の分布と、該特徴点の位置、周辺に存在する特徴点の数、又は対応する特徴点との位置関係とに基づいて、該特徴点が信頼できるか否か、又は該特徴点の信頼度を判定することができる。
また、第1の発明に係る判定手段は、予め用意された複数の学習用画像から得られる、複数の学習用画像間で対応した複数の特徴点、複数の特徴点の各々の特徴量、及び複数の特徴点の各々の周辺に存在する特徴点の特徴量の分布と、複数の特徴点の各々について予め求められた信頼できるか否か又は信頼度とに基づいて、特徴量の分布、及び特徴点の位置、周辺に存在する特徴点の数、又は対応する特徴点との位置関係と、信頼できるか否か又は信頼度との関係を予め学習した学習結果に基づいて、特徴点の各々について、該特徴点が信頼できるか否か、又は該特徴点の信頼度を判定することができる。
第3の発明に係る運動推定装置は、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段と、前記検索手段によって検索された対応した特徴点に基づいて、前記移動体の運動の推定候補を複数算出する候補算出手段と、前記運動の推定候補の各々について、該運動の推定候補に従う前記対応した特徴点の特徴量、及び該運動の推定候補に従わない前記対応した特徴点の特徴量に基づいて、該運動の推定候補がどれだけ信頼できるかを示す信頼度を判定する判定手段と、前記判定手段によって判定された前記運動の推定候補の各々の信頼度に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段とを含んで構成されている。
第4の発明に係るプログラムは、コンピュータを、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段、前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段、前記検索手段によって検索された対応した特徴点に基づいて、前記移動体の運動の推定候補を複数算出する候補算出手段、前記運動の推定候補の各々について、該運動の推定候補に従う前記対応した特徴点の特徴量、及び該運動の推定候補に従わない前記対応した特徴点の特徴量に基づいて、該運動の推定候補がどれだけ信頼できるかを示す信頼度を判定する判定手段、及び前記判定手段によって判定された前記運動の推定候補の各々の信頼度に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段として機能させるためのプログラムである。
第3の発明及び第4の発明によれば、特徴点抽出手段によって、移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出し、特徴量算出手段によって、特徴点抽出手段によって抽出された特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する。検索手段によって、特徴量算出手段によって算出された特徴点の各々の特徴量に基づいて、複数の画像間で対応した特徴点を検索する。
そして、候補算出手段によって、検索手段によって検索された対応した特徴点に基づいて、移動体の運動の推定候補を複数算出する。判定手段によって、運動の推定候補の各々について、該運動の推定候補に従う対応した特徴点の特徴量、及び該運動の推定候補に従わない対応した特徴点の特徴量に基づいて、該運動の推定候補がどれだけ信頼できるかを示す信頼度を判定する。運動推定手段によって、判定手段によって判定された運動の推定候補の各々の信頼度に基づいて、複数の画像を撮像したときの移動体の運動を推定する。
このように、複数の運動推定候補の信頼度を判定し、判定された信頼度を用いて、移動体の運動を推定することにより、安定して移動体の運動を精度よく推定することができる。
第3の発明に係る判定手段は、運動の推定候補の各々について、該運動の推定候補に従う対応した特徴点の特徴量の分布、及び該運動の推定候補に従わない対応した特徴点の特徴量の分布に基づいて、該運動の推定候補の信頼度を判定することができる。
また、第3の発明に係る判定手段は、予め用意された複数の学習用画像から得られる、複数の学習用画像間で対応した複数の特徴点、複数の特徴点の各々の特徴量、及び移動体の複数の運動の推定候補と、複数の運動の推定候補の各々について予め求められた信頼できるか否かとに基づいて、運動の推定候補に従う対応した特徴点の特徴量の分布、及び運動の推定候補に従わない対応した特徴点の特徴量の分布と、信頼度との関係を学習した学習結果に基づいて、複数の運動の推定候補の各々について、該運動の推定候補の信頼度を判定することができる。
上記の特徴量算出手段は、特徴点の各々について、該特徴点の特徴量として、該特徴点の周辺画素の輝度情報から算出されるベクトル値を量子化した値を算出することができる。
以上説明したように、本発明の運動推定装置及びプログラムによれば、移動体の運動を推定することにより、安定して移動体の運動を精度よく推定することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、車両に搭載された運動推定装置に本発明を適用した場合を例に説明する。
図1に示すように、第1の実施の形態に係る運動推定装置10は、車両(図示省略)に取り付けられ、かつ、自車両の前方の画像を撮像する単眼のカメラで構成される撮像装置12と、撮像装置12によって撮像された複数の画像に基づいて、自車両の運動を推定して外部装置(図示省略)に出力するコンピュータ14とを備えている。
撮像装置12は、車両の前方を撮像し、画像の画像信号を生成する撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。
コンピュータ14は、CPUと、RAMと、後述する学習処理ルーチン及び運動推定処理ルーチンの各々を実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。
コンピュータ14は、撮像装置12から撮像された画像を取得する画像取得部20と、画像取得部20により取得した撮像画像から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部22と、抽出された特徴点の各々について、特徴点の周辺画素における各エッジ方向のヒストグラムを算出して、各エッジ方向のヒストグラムを示すベクトルを生成すると共に、ベクトルがどの分類に属するかを特定して、特定されたベクトルに関する分類を、特徴点の特徴量として求める特徴点特徴量算出部24と、特徴点の特徴量に基づいて、特徴点抽出部22により得られた2つの画像の各々における特徴点から、2つの画像の間で対応する特徴点(以下、対応点とも称する)を検索する対応点検索部26と、抽出された特徴点の各々について、当該特徴点の周辺に存在する周辺特徴点の特徴量を用いて、当該特徴点の特徴ベクトルを生成する特徴ベクトル生成部28と、後述する学習処理によって予め得られた特徴ベクトルとインライア、アウトライアを示すラベルとの関係の学習結果を記憶した学習結果記憶部30と、算出された各特徴点の特徴ベクトル、及び記憶した特徴ベクトルとラベルとの関係の学習結果に基づいて、各特徴点がインライア及びアウトライアの何れであるかを判定する判定部32と、インライアと判定された、対応する特徴点の組み合わせに基づいて、自車両の運動を推定する運動推定部34とを備えている。
特徴点抽出部22は、撮像装置12から得られる複数の撮像画像の各々から、特徴点を複数抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えば、DoG(Difference of Gaussian)、Harris−Laplaceなど)を用いて、自動的に抽出される。DoGでは、以下のように特徴点を抽出する。
まず、画像I(x,y)に対して標準偏差σの異なるガウシアンフィルタG(x,y,σ)をかけた、複数の平滑化画像L(x,y,σ)を生成する。それぞれ、以下の(1)式、(2)式で表される。
ただし、I(x,y)は画像Iの座標(x,y)の輝度値を表わし、*は畳み込みを表す。
次に、標準偏差の異なる2つの平滑化画像の差分をとって、Difference−of−Gaussian(DoG)画像D(x,y,σ)を以下の(3)式に従って計算する。
ここで、kは定数のパラメータである。このようにして、複数のスケールσのDoG画像を生成する。そして、生成したDoG画像から極値を探索することで、特徴点の抽出を行う。極値の探索は、DoG画像の注目画像及び上下の隣接スケールの画像の各々における、注目画素及び隣接する画素の画素値と比較することにより行う。つまり、スケールσのDoG画像D(x,y,σ)の点(x,y)に対して特徴点か否かの判定を行うときには、以下の26点と比較を行い、最小値又は最大値であれば、極値であると判断し、注目画素を特徴点として抽出する。
特徴点抽出部22は、以上の処理で得られる特徴点の画像座標とスケールとを特徴点の情報として保持する。
特徴点特徴量算出部24は、以下に説明するように、各特徴点の特徴量を算出する。まず、図2(A)、図3(A)に示すように特徴点抽出部22で抽出された特徴点の各々に対して、エッジ方向ヒストグラムを計算する。エッジ方向ヒストグラムを計算するためには、まず特徴点の周囲に、特徴点のスケールが大きいほど大きなサイズのウィンドウを設定し、設定したウィンドウ内の各画素に対して勾配の大きさ、方向を計算する。画像I(x,y)の勾配の大きさm(x,y)、方向θ(x,y)は以下の(4)式、(5)式に従って計算される。
そして、特徴点の周囲に設定したウィンドウを複数の小領域に分割し、各小領域について、図2(B)や図3(B)に示すようなエッジ方向のヒストグラムを作成する。エッジ方向のヒストグラムは、エッジ方向を所定の数に分割したヒストグラムであり、小領域内の各画素の勾配方向を勾配の大きさで重み付けして投票することにより、エッジ方向のヒストグラムを生成する。そして、全ての小領域のエッジ方向のヒストグラムを連結したベクトルを、特徴点のベクトル値として生成する。
そして、図4(B)、(C)に示すような、学習画像から得られたベクトル値に関する複数の分類に基づいて、各特徴点のベクトル値が、どの分類に属するかを特定することにより、ベクトル値の量子化を行い、特定された分類を示す値を、特徴点の特徴量とする。
対応点検索部26は、特徴点特徴量算出部24から得られる各特徴点の特徴量を用いて、以下に説明するように、複数の画像間での特徴点の対応付けを行って、一つの画像の特徴点に対応する特徴点を他の画像から検索する。
特徴点の抽出と特徴量の算出が行われた2枚の画像I,I’において、画像Iの特徴点fに対する画像I’の特徴点を求めるとき、画像I’から抽出された特徴点から、その特徴量が特徴点fの特微量と最も近い特徴点f’ を求める。このとき、特徴点fの特徴量と特徴点f’の特徴量との距離d及び、特徴点fの特徴量と2番目に近い特徴量f’との距離dの比d/dが、ある所定のしきい値より小さい場合に、画像Iの特徴点fと画像I’の特徴点f’を対応付ける。
特徴ベクトル生成部28は、特徴点抽出部22により抽出された特徴点の各々について、注目特徴点とその周辺に存在する特徴点の特徴量の個数分布であるヒストグラムを用いて、特徴ベクトルを生成する。例えば、図5(A)に示すように、注目特徴点に対して、注目特徴点を中心とする所定の大きさの矩形領域を設け、図5(B)に示すように、その矩形領域内に存在する特徴点の特徴量(分類番号)の個数分布である特徴量ヒストグラムを生成し、各特徴量の値(個数)を並べたベクトルを特徴ベクトルとして生成する。なお、特徴量ヒストグラムの値を並べたベクトルに、矩形領域内の特徴点の個数、注目特徴点の画像座標、注目特徴点の画像間での位置関係(オプティカルフロー)を更に加えて並べたものを、特徴ベクトルとして生成してもよい。さらに、時系列画像を用いる場合には、注目特徴点の追跡時間を更に加えて並べた特徴ベクトルを生成するようにしてもよい。
学習結果記憶部30には、以下に説明する学習処理により学習結果として得られた特徴ベクトルとインライア、アウトライアを示すラベルとの関係を記憶する。
学習処理では、まず、予め用意された複数の学習用画像に対して、上述した方法と同様に、特徴点の抽出、特徴点の特徴量の算出、及び対応する特徴点の検索を行い、特徴点、特徴量、および画像間での特徴点の対応関係を求める。そして、オペレータの操作によって、学習用画像から抽出された特徴点のうち、画像間での特徴点の対応関係に誤りがある特徴点、および移動物体上に存在する特徴点をアウトライアとラベル付けし、そうでない特徴点をインライアとラベル付けする。次に、ラベル付けされた特徴点に対して、特徴ベクトル生成部28と同様に特徴ベクトルを生成し、そして、ラベル付けされた特徴点、特徴点の特徴ベクトル、およびラベルを入力として、特徴ベクトルに対してインライア、アウトライアを判定する学習処理を行い、特徴ベクトルとインライア、アウトライアを示すラベルとの関係を学習する。なお、特徴点に対してラベル付けされるインライア又はアウトライアは、運動推定の際に特徴点の対応が信頼できるか否かを表わし、本発明の特徴点を信頼できるか否かに対応している。
判定部32は、特徴ベクトル生成部28によって生成された各特徴点の特徴ベクトル、及び学習結果記憶部30に記憶された学習結果としての特徴ベクトルとラベルとの関係に基づいて、各特徴点に対してインライア、アウトライアの判定を行う。
運動推定部34は、判定部32によりインライアと判定された特徴点の画像間での対応関係を用いて、複数の画像間の相対的な位置及び姿勢を、複数の画像を撮像したときの自車両の運動として推定する。
2枚の画像で対応する特徴点の座標から、2つの画像が撮像されたときの位置、姿勢の変化(3次元空間での移動量および回転量)を計算するとき、計算する位置姿勢の変化は、図6に示すような第1の画像から第2の画像への回転行列Rと並進ベクトルtから構成される6自由度の運動である。
ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標Iと第2の画像におけるn点の対応点の画像座標I’とについて(n≧8)、対応点の対応関係が正しくて誤差がなければ、位置及び姿勢の変化を示す行列として、以下の(6)式を満たす3×3行列Fが存在する。
ただし、I=(u,v,1)、I’=(u’,v’,1)であり、第1の画像での画像座標(u,v)の点に対応する第2の画像での点の画像座標が(u’,v’)である。
ここで、上記(6)式を満たす行列Fは、定数倍の不定性を持っている。すなわち、Fが上記(6)式を満たす場合には、αFも上記(6)式を満たす(ただし、αは実数)。よって、行列Fを以下の(7)式のように表すことができる。
また、上記(6)式、(7)式より、以下の(8)式が得られる。
ここで、8組以上の対応点I、I’があれば、上記(8)式が少なくとも8つ得られるため、8つの変数f11〜f32を求めることができる。つまり、判定部32によりインライアと判定された特徴点が8点以上あれば、行列Fを計算できる。
また、誤対応した特徴点や移動物体上の特徴点の中にも、インライアと誤判定された点が含まれることがあるため、インライアと判定された特徴点のうち、その対応関係が上記(6)式を満たす特徴点の数が最も多くなる行列Fを求める。
実画像で特徴点の対応を求めた場合には、対応する画像座標には誤差が含まれるため、正しい対応関係であっても上記(6)式を厳密には満たさない。そこで、行列Fが与えられたとき、特徴点の対応関係が上記(6)式を満たすか否かは以下の(9)式に示す条件を満たすか否かにより判断する。
ただし、d(a,b)はaとbの距離を表し、τはあらかじめ設定するしきい値である。
また、撮像装置12のキャリブレーション行列Kが既知である場合には、上述したように特定された行列Fに基づいて、以下の(10)式、(11)式に従って、回転行列Rと並進ベクトルtとを計算し、第1の画像及び第2の画像の各々が撮像されたときの撮像装置12の運動(位置及び姿勢の変化)として出力する。
上記の方法により、運動推定部34は、第1の画像及び第2の画像における複数組の対応する特徴点の画像座標と、各特徴点のインライア、アウトライアの判定結果とに基づいて、第1の画像及び第2の画像を撮像したときの撮像装置12の位置及び姿勢の変化を計算する。
次に、第1の実施の形態に係る運動推定装置10の作用について説明する。
まず、運動推定装置10のコンピュータ14において、図7に示す学習処理ルーチンが実行される。
ステップ100において、異なるタイミングで撮像装置12によって自車両前方を予め撮像した第1の学習用画像及び第2の学習用画像を取得する。そして、ステップ102において、上記ステップ100で取得した第1の学習用画像及び第2の学習用画像から特徴点を複数抽出する。そして、ステップ104において、上記ステップ102で第1の学習用画像及び第2の学習用画像から抽出された複数の特徴点の各々について、特徴量を算出する。
次のステップ106では、上記ステップ104で算出された特徴量に基づいて、上記ステップ102で抽出された第1の学習用画像上の複数の特徴点の各々に対応する特徴点を、第2の学習用画像上で検索して追跡する。
そして、ステップ108において、第1の学習用画像上の特徴点の各々について、特徴ベクトルを生成し、ステップ110で、第1の学習用画像及び第2の学習用画像の特徴点の対応関係を表わすと共に、第1の学習用画像上の複数の特徴点の各々にラベル付けするためのラベル入力用画面を、ディスプレイ(図示省略)に表示する。これによって、オペレータは、各特徴点の位置や、第1の学習用画像及び第2の学習用画像の特徴点の対応関係を参照しながら、キーボードやマウスなどを操作して、第1の学習用画像上の複数の特徴点の各々に対して、インライア、アウトライアのラベル付けを行う。
次のステップ112において、オペレータによるラベル入力が終了したか否かを判定し、オペレータの操作により、ラベル入力の終了が入力されると、ステップ114へ進む。
ステップ114では、上記ステップ108で生成された各特徴点の特徴ベクトルと、各特徴点にラベル付けされたラベルとに基づいて、特徴ベクトルとラベルとの関係を学習し、得られた特徴ベクトルとラベルとの関係をメモリ(図示省略)に記憶して、学習処理ルーチンを終了する。
また、運動推定装置10を搭載した自車両が走行しているときに、撮像装置12によって連続して自車両前方の画像が複数撮像されると共に、運動推定装置10のコンピュータ14において、図8に示す運動推定処理ルーチンが繰り返し実行される。
まず、ステップ120において、異なるタイミングで撮像装置12によって自車両前方を撮像した第1の画像及び第2の画像を取得する。そして、ステップ122において、上記ステップ120で取得した第1の画像及び第2の画像から特徴点を複数抽出する。そして、ステップ124において、上記ステップ122で第1の画像及び第2の画像から抽出された複数の特徴点の各々について、特徴量を算出する。
次のステップ126では、上記ステップ124で算出された特徴量に基づいて、上記ステップ122で抽出された第1の画像上の複数の特徴点の各々に対応する特徴点を、第2の画像上で検索して追跡する。
そして、ステップ128において、第1の画像上の特徴点の各々について、特徴ベクトルを生成し、ステップ130において、学習された特徴ベクトルとラベルとの関係、及び上記ステップ128で生成された各特徴点の特徴ベクトルに基づいて、第1の画像上の特徴点の各々について、インライアかアウトライアかを判定する。
次のステップ132では、上記ステップ130でインライアと判定された特徴点と対応する特徴点との対応関係の任意の組み合わせに基づいて、行列Fを計算し、また、対応関係が上記(9)式を満たす特徴点の数が最も多い行列Fを求める。そして、求められた行列Fに基づいて、上記(10)式及び(11)式に従って、第1の画像を撮像したときの撮像装置12の第1の位置及び第1の姿勢と、第2の画像を撮像したときの撮像装置12の第2の位置及び第2の姿勢との変化として、撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量を算出し、撮像装置12を搭載した自車両のその2時刻間における運動の推定結果として外部装置に出力して、運動推定処理ルーチンを終了する。
以上説明したように、第1の実施の形態に係る運動推定装置によれば、抽出された特徴点の各々がインライアであるか否かを判定し、インライアであると判定された特徴点の対応関係を用いて、自車両の運動を推定することにより、周囲に移動物体が存在する場合や背景が複雑な場合においても、安定して自車両の運動を精度よく推定することができる。
複数枚の画像を用いて画像の撮影時刻間に発生した運動を推定するとき、画像からコーナーなどの特徴的な点である特徴点を抽出し、それらの特徴点を画像間で対応付け、その対応関係から画像間の相対的な位置及び姿勢の変化を求めるが、対応付けを誤った特徴点や画像中に存在する他の移動物体上の特徴点が多くなると、相対的な位置及び姿勢の変化を精度よく計算することが難しい。これに対して、本実施の形態では、各特徴点周辺のエッジ分布などのパターン情報を特徴量として抽出し、各特徴点とその周辺に存在する特徴点の特徴量から、誤対応しやすい特徴点または車両などの移動物体上の特徴点であるか否かを判定し、誤対応しやすい特徴点および移動物体上らしい特徴点を除いて、運動を推定することにより、背景が複雑で誤対応点が多く発生する場合や、周囲に移動物体が多く存在する場合にも、安定して精度よく運動を推定することができる。
次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る運動推定装置は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。
第2の実施の形態では、各特徴点について、インライアらしさを表わす連続値である信頼度を判定している点が、第1の実施の形態と主に異なっている。
第2の実施の形態に係る運動推定装置では、学習用画像を用いて得られた、ラベル付けされた特徴点、特徴点の特徴ベクトル、およびラベルに基づいて、学習処理を行って、学習結果として、特徴ベクトルとインライアらしさを表す信頼度との関係を得る。なお、インライアらしさを表わす信頼度は、運動推定の際に特徴点の対応がどれだけ信頼できるかを表わし、本発明の特徴点がどれだけ信頼できるかを示す信頼度に対応している。
また、学習結果記憶部30に、学習処理により得られた特徴ベクトルと信頼度との関係を記憶する。
判定部32によって、特徴ベクトル生成部28によって生成された各特徴点の特徴ベクトル、及び学習結果記憶部30に記憶された学習結果に基づいて、各特徴点に対して、信頼度を判定する。特徴点のインライアらしさが強いほど、当該特徴点に対して高い信頼度が判定される。
運動推定部34は、対応する特徴点の任意の組み合わせに基づいて、行列Fを計算する。また、運動推定部34は、判定部32により判定された各特徴点の信頼度に基づいて、信頼度が大きいほど特徴点の重み係数wを大きく設定して、行列Fを計算する際に用いられた、対応する特徴点の複数の組の画像座標、及び設定された各特徴点の重み係数に基づいて、以下の(12)式で表される重み係数の総和Zが最大となるような行列Fを特定する。
ただし、nは特徴点の数、wはi番目の特徴点の重み係数、δ(x)はxが真なら1、そうでないなら0をとる関数である。
そして、上述したように特定された行列Fに基づいて、上記の(10)式、(11)式に従って、回転行列Rと並進ベクトルtとを計算し、第1の画像及び第2の画像が撮像されたときの撮像装置12の運動(位置及び姿勢の変化)として出力する。
なお、第2の実施の形態に係る運動推定装置の他の構成及び処理については、第1の実施の形態と同様であるため、説明を省略する。
このように、第2の実施の形態に係る運動推定装置によれば、抽出された特徴点の各々について信頼度を判定し、判定された信頼度に応じた重み係数を用いて、自車両の運動を推定することにより、周囲に移動物体が存在する場合や背景が複雑な場合においても、安定して自車両の運動を精度よく推定することができる。
次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。
第3の実施の形態では、運動推定候補を複数算出し、各運動推定候補の各々について信頼度を判定している点が、主に第1の実施の形態と異なっている。
図9に示すように、第3の実施の形態に係る運動推定装置310のコンピュータ314は、画像取得部20と、特徴点抽出部22と、特徴点特徴量算出部24と、対応点検索部26と、検索された対応する特徴点の複数種類の組み合わせに基づいて、自車両の運動の推定候補を複数算出する運動推定候補算出部327と、算出された運動推定候補の各々について、対応関係が当該運動推定候補に従う対応する特徴点の特徴量、及び対応関係が当該運動推定候補に従わない対応する特徴点の特徴量を用いて、当該運動推定候補の特徴ベクトルを生成する特徴ベクトル生成部328と、後述する学習処理によって予め得られた、特徴ベクトルと信頼度との関係である学習結果を記憶した学習結果記憶部330と、生成された各運動推定候補の特徴ベクトル、及び記憶した特徴ベクトルと信頼度との関係の学習結果に基づいて、各運動推定候補の正しさの信頼度を判定する判定部332と、判定された各運動推定候補の信頼度に基づいて、自車両の運動を推定する運動推定部334とを備えている。
運動推定候補算出部327は、対応点検索部26で検索された対応する特徴点から、対応する特徴点をランダムに8組選択し、選択された対応する特徴点の複数種類の組み合わせから、行列Fを繰り返し計算して、複数の運動推定候補(位置・姿勢パラメータ)を算出する。なお、画像間で発生する可能性のある運動推定候補(位置・姿勢パラメータ)を複数算出するようにしてもよい。
特徴ベクトル生成部328は、各運動推定候補に対して、以下のようにして特徴ベクトルを生成する。
まず、画像間で対応する特徴点の対応関係の各々について、対象となる運動推定候補に対応関係が従っているか否かを判定する。特徴点の対応関係が運動推定候補に従うか否かは、運動推定候補から計算される行列Fが、上記(9)式を満たすか否かにより判断する。
次に、図10(B)に示すように、対象の運動推定候補に対応関係が従う特徴点の特徴量のヒストグラム、および対応関係が従わない特徴点の特徴量のヒストグラムを生成し、この2つのヒストグラムの要素の値を並べたベクトルを、対象の運動推定候補の特徴ベクトルとして生成する。
学習結果記憶部330は、以下に説明する学習処理により得られた特徴ベクトルと信頼度との関係を記憶する。
学習処理では、まず、予め用意された図10(A)に示すような複数の学習用画像に対して、上述した方法と同様に、特徴点の抽出、特徴点の特徴量の算出、対応する特徴点の検索、及び運動推定候補の算出を行い、特徴点、特徴量、画像間で対応する特徴点の対応関係、及び複数の運動推定候補を求める。また、各運動推定候補に対して、特徴ベクトル生成部28と同様に特徴ベクトルを生成する。
そして、オペレータの操作によって、学習用画像から算出された複数の運動推定候補に対して、正しい運動であることを示すラベル、又は誤った運動であることを示すラベルを付す。次に、ラベル付けされた運動推定候補、運動推定候補の特徴ベクトル、および運動推定候補のラベルを入力として、特徴ベクトルと、運動推定候補の正しさを表す信頼度との関係を学習する。
判定部332は、特徴ベクトル生成部328によって生成された各運動推定候補の特徴ベクトル、及び学習結果記憶部330に記憶された学習結果に基づいて、各運動推定候補に対して信頼度の判定を行う。
運動推定部334は、判定部332によって判定された各運動推定候補の信頼度に基づいて、最も信頼度の高い運動推定候補を、自車両の運動の推定値として求め、外部装置に出力する。
次に、第3の実施の形態に係る運動推定装置310の作用について説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、運動推定装置310のコンピュータ314において、図11に示す学習処理ルーチンが実行される。
ステップ100において、撮像装置12によって予め撮像した第1の学習用画像及び第2の学習用画像を取得し、ステップ102において、第1の学習用画像及び第2の学習用画像から特徴点を複数抽出する。そして、ステップ104において、第1の学習用画像及び第2の学習用画像から抽出された複数の特徴点の各々について、特徴量を算出する。
次のステップ106では、抽出された第1の学習用画像上の複数の特徴点の各々に対応する特徴点を、第2の学習用画像上で検索して追跡する。
そして、ステップ250において、上記ステップ106で検索された、対応する特徴点の複数種類の組み合わせの各々に基づいて、自車両の複数の運動推定候補を算出する。次のステップ252では、上記ステップ250で算出された複数の運動推定候補の各々について、特徴ベクトルを生成する。
そして、ステップ254において、算出された複数の運動推定候補の各々に対してラベル付けするためのラベル入力用画面をディスプレイ(図示省略)に表示する。これによって、オペレータは、運動推定候補のパラメータを参照しながら、キーボードやマウスなどを操作して、複数の運動推定候補の各々に対して、運動推定候補が正しいか否かのラベル付けを行う。
次のステップ256において、オペレータによるラベル入力が終了したか否かを判定し、オペレータの操作により、ラベル入力の終了が入力されると、ステップ258へ進む。
ステップ258では、上記ステップ252で生成された各運動推定候補の特徴ベクトルと、各運動推定候補にラベル付けされたラベルとに基づいて、特徴ベクトルと信頼度との関係を学習し、学習結果として得られた特徴ベクトルと信頼度との関係をメモリ(図示省略)に記憶して、学習処理ルーチンを終了する。
また、運動推定装置310を搭載した自車両が走行しているときに、撮像装置12によって連続して自車両前方の画像が複数撮像されると共に、運動推定装置310のコンピュータ314において、図12に示す運動推定処理ルーチンが繰り返し実行される。
まず、ステップ120において、撮像装置12によって撮像した第1の画像及び第2の画像を取得し、ステップ122において、第1の画像及び第2の画像から特徴点を複数抽出する。そして、ステップ124において、第1の画像及び第2の画像から抽出された複数の特徴点の各々について、特徴量を算出し、次のステップ126で、算出された特徴量に基づいて、抽出された第1の画像上の複数の特徴点の各々に対応する特徴点を、第2の画像上で検索して追跡する。
そして、ステップ270において、上記ステップ126で検索された、対応する特徴点の複数種類の組み合わせの各々に基づいて、自車両の複数の運動推定候補を算出する。次のステップ272では、上記ステップ270で算出された複数の運動推定候補の各々について、特徴ベクトルを生成する。
そして、ステップ274において、学習された特徴ベクトルと信頼度との関係、及び上記ステップ272で生成された各運動推定候補の特徴ベクトルに基づいて、複数の運動推定候補の各々について、正しさの信頼度を判定する。
次のステップ276では、上記ステップ274で判定された信頼度が最も高い運動推定候補を、撮像装置12を搭載した自車両の第1の画像及び第2画像の撮像時の2時刻間における運動の推定結果として求め、外部装置に出力して、運動推定処理ルーチンを終了する。
以上説明したように、第3の実施の形態に係る運動推定装置によれば、複数の運動推定候補の各々に対して信頼度を判定し、判定された信頼度に基づいて、自車両の運動を推定することにより、周囲に移動物体が存在する場合や背景が複雑な場合においても、安定して自車両の運動を精度よく推定することができる。
次に、第4の実施の形態について説明する。なお、第4の実施の形態に係る運動推定装置は、第3の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。
第4の実施の形態では、画像を分割した分割領域毎に、運動推定候補に従う特徴点の特徴量のヒストグラム及び従わない特徴点の特徴量のヒストグラムを計算して、特徴ベクトルを生成している点が、第3の実施の形態と主に異なっている。
第4の実施の形態に係る運動推定装置では、特徴ベクトル生成部328によって、各運動推定候補に対して、以下のようにして特徴ベクトルを生成する。
まず、図13に示すように、画像を複数の領域に分割する。また、画像間で対応する特徴点の各々について、対象となる運動推定候補に対応関係が従うか否かを判定する。次に、分割領域毎に、当該分割領域内の特徴点を参照して、対象の運動推定候補に対応関係が従う特徴点の特徴量のヒストグラム、および対応関係が従わない特徴点の特徴量のヒストグラムを生成する。そして、全ての分割領域について2つのヒストグラムの要素の値を並べたベクトルを、対象の運動推定候補の特徴ベクトルとして生成する。
また、運動推定候補の特徴ベクトルと信頼度との関係を学習するための学習処理においても、上記と同様の特徴ベクトルを生成する。
なお、第4の実施の形態に係る運動推定装置の他の構成及び処理については、第3の実施の形態と同様であるため、説明を省略する。
このように、分割領域毎に求めた特徴量のヒストグラムに基づいて生成した特徴ベクトルを用いて、複数の運動推定候補の各々に対して信頼度を判定し、判定された信頼度に基づいて、自車両の運動を推定することにより、周囲に移動物体が存在する場合や背景が複雑な場合においても、安定して自車両の運動を精度よく推定することができる。
なお、上記の第3の実施の形態及び第4の実施の形態では、学習処理において、オペレータの操作によって、運動推定候補の各々に対してラベル付けを行う場合を例に説明したが、これに限定されるものではなく、自動的に運動推定候補に対してラベル付けを行うようにしてもよい。例えば、学習用画像間の運動を予め求めておき、予め求められた運動と、各運動推定候補との差分に基づいて、各運動推定候補に対して正しいか否かのラベル付けを自動的に行うようにしてもよい。
また、最も信頼度が高い運動推定候補を、運動の推定結果とする場合を例に説明したが、これに限定されるものではなく、信頼度に応じた重み係数を用いて運動推定候補を重み付き平均した運動を、推定結果としてもよい。この場合には、信頼度が閾値以上の運動推定候補のみを用いて、重み付き平均するようにすることが好ましい。
また、上記の第1の実施の形態〜第4の実施の形態では、特徴点の特徴量として、特徴点の周辺画素の輝度情報から得られるエッジ方向ヒストグラムを量子化した値を算出する場合を例に説明したが、これに限定されるものではなく、特徴点の周辺画素の輝度情報を用いて算出される特徴量であれば、他の特徴量であってもよい。
本発明のプログラムは、記憶媒体に格納して提供するようにしてもよい。
本発明の第1の実施の形態に係る運動推定装置を示すブロック図である。 (A)撮影画像から抽出された特徴点を示すイメージ図、及び(B)特徴点のエッジ方向ヒストグラムを示すグラフである。 (A)撮影画像から抽出された特徴点を示すイメージ図、及び(B)特徴点のエッジ方向ヒストグラムを示すグラフである。 (A)学習画像を示すイメージ図、(B)学習画像から得られるエッジ方向ヒストグラムの分類を示すイメージ図、及び(C)各分類のエッジ方向ヒストグラムを示すグラフである。 (A)特徴点に対して設定された矩形領域を示すイメージ図、及び(B)矩形領域内の特徴点について求められた特徴量ヒストグラムを示すイメージ図である。 第1の画像から第2の画像への回転行列Rと並進ベクトルtを示すイメージ図である。 本発明の第1の実施の形態に係る運動推定装置における学習処理ルーチンの内容を示すフローチャートである。 本発明の第1の実施の形態に係る運動推定装置における運動推定処理ルーチンの内容を示すフローチャートである。 本発明の第2の実施の形態に係る運動推定装置を示すブロック図である。 (A)撮影画像から抽出された特徴点を示すイメージ図、及び(B)対象の運動推定候補に対応関係が従う特徴点の特徴量のヒストグラム、および対応関係が従わない特徴点の特徴量のヒストグラムを示すグラフである。 本発明の第3の実施の形態に係る運動推定装置における学習処理ルーチンの内容を示すフローチャートである。 本発明の第3の実施の形態に係る運動推定装置における運動推定処理ルーチンの内容を示すフローチャートである。 撮影画像を分割した分割領域を示すイメージ図である。
符号の説明
10、310 運動推定装置
12 撮像装置
14、314 コンピュータ
22 特徴点抽出部
24 特徴点特徴量算出部
26 対応点検索部
28、328 特徴ベクトル生成部
30、330 学習結果記憶部
32、332 判定部
34、334 運動推定部
327 運動推定候補算出部

Claims (11)

  1. 移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段と、
    前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段と、
    前記特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量に基づいて、該特徴点が信頼できるか否か、又は該特徴点がどれだけ信頼できるかを示す信頼度を判定する判定手段と、
    前記判定手段による判定結果、及び前記検索手段によって検索された前記対応した特徴点に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段と、
    を含む運動推定装置。
  2. 前記判定手段は、前記特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量の分布に基づいて、該特徴点が信頼できるか否か、又は該特徴点の前記信頼度を判定する請求項1記載の運動推定装置。
  3. 前記判定手段は、予め用意された複数の学習用画像から得られる、前記複数の学習用画像間で対応した複数の特徴点、前記複数の特徴点の各々の前記特徴量、及び前記複数の特徴点の各々の周辺に存在する特徴点の特徴量の分布と、前記複数の特徴点の各々について予め求められた信頼できるか否か又は前記信頼度とに基づいて、前記特徴量の分布と、信頼できるか否か又は前記信頼度との関係を予め学習した学習結果に基づいて、前記特徴点の各々について、該特徴点が信頼できるか否か、又は該特徴点の前記信頼度を判定する請求項2記載の運動推定装置。
  4. 前記判定手段は、前記特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量の分布と、該特徴点の位置、前記周辺に存在する特徴点の数、又は対応する特徴点との位置関係とに基づいて、該特徴点が信頼できるか否か、又は該特徴点の前記信頼度を判定する請求項1記載の運動推定装置。
  5. 前記判定手段は、予め用意された複数の学習用画像から得られる、前記複数の学習用画像間で対応した複数の特徴点、前記複数の特徴点の各々の前記特徴量、及び前記複数の特徴点の各々の周辺に存在する特徴点の特徴量の分布と、前記複数の特徴点の各々について予め求められた信頼できるか否か又は前記信頼度とに基づいて、前記特徴量の分布、及び前記特徴点の位置、前記周辺に存在する特徴点の数、又は対応する特徴点との位置関係と、信頼できるか否か又は前記信頼度との関係を予め学習した学習結果に基づいて、前記特徴点の各々について、該特徴点が信頼できるか否か、又は該特徴点の前記信頼度を判定する請求項4記載の運動推定装置。
  6. 移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段と、
    前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段と、
    前記検索手段によって検索された対応した特徴点に基づいて、前記移動体の運動の推定候補を複数算出する候補算出手段と、
    前記運動の推定候補の各々について、該運動の推定候補に従う前記対応した特徴点の特徴量、及び該運動の推定候補に従わない前記対応した特徴点の特徴量に基づいて、該運動の推定候補がどれだけ信頼できるかを示す信頼度を判定する判定手段と、
    前記判定手段によって判定された前記運動の推定候補の各々の信頼度に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段と、
    を含む運動推定装置。
  7. 前記判定手段は、前記運動の推定候補の各々について、該運動の推定候補に従う前記対応した特徴点の特徴量の分布、及び該運動の推定候補に従わない前記対応した特徴点の特徴量の分布に基づいて、該運動の推定候補の前記信頼度を判定する請求項6記載の運動推定装置。
  8. 前記判定手段は、予め用意された複数の学習用画像から得られる、前記複数の学習用画像間で対応した複数の特徴点、前記複数の特徴点の各々の前記特徴量、及び前記移動体の複数の運動の推定候補と、前記複数の運動の推定候補の各々について予め求められた信頼できるか否かとに基づいて、前記運動の推定候補に従う前記対応した特徴点の特徴量の分布、及び前記運動の推定候補に従わない前記対応した特徴点の特徴量の分布と、前記信頼度との関係を学習した学習結果に基づいて、前記複数の運動の推定候補の各々について、該運動の推定候補の前記信頼度を判定する請求項7記載の運動推定装置。
  9. 前記特徴量算出手段は、前記特徴点の各々について、該特徴点の特徴量として、該特徴点の周辺画素の輝度情報から算出されるベクトル値を量子化した値を算出する請求項1〜請求項8の何れか1項記載の運動推定装置。
  10. コンピュータを、
    移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段、
    前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段、
    前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段、
    前記特徴点の各々について、該特徴点の周辺に存在する特徴点の特徴量に基づいて、該特徴点が信頼できるか否か、又は該特徴点がどれだけ信頼できるかを示す信頼度を判定する判定手段、及び
    前記判定手段による判定結果、及び前記検索手段によって検索された前記対応した特徴点に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段
    として機能させるためのプログラム。
  11. コンピュータを、
    移動体の外部を撮像した複数の画像の各々から、複数の特徴点を抽出する特徴点抽出手段、
    前記特徴点抽出手段によって抽出された前記特徴点の各々について、該特徴点の周辺画素に基づく特徴量を算出する特徴量算出手段、
    前記特徴量算出手段によって算出された前記特徴点の各々の特徴量に基づいて、前記複数の画像間で対応した特徴点を検索する検索手段、
    前記検索手段によって検索された対応した特徴点に基づいて、前記移動体の運動の推定候補を複数算出する候補算出手段、
    前記運動の推定候補の各々について、該運動の推定候補に従う前記対応した特徴点の特徴量、及び該運動の推定候補に従わない前記対応した特徴点の特徴量に基づいて、該運動の推定候補がどれだけ信頼できるかを示す信頼度を判定する判定手段、及び
    前記判定手段によって判定された前記運動の推定候補の各々の信頼度に基づいて、前記複数の画像を撮像したときの前記移動体の運動を推定する運動推定手段
    として機能させるためのプログラム。
JP2008334950A 2008-12-26 2008-12-26 運動推定装置及びプログラム Expired - Fee Related JP5262705B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008334950A JP5262705B2 (ja) 2008-12-26 2008-12-26 運動推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008334950A JP5262705B2 (ja) 2008-12-26 2008-12-26 運動推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010157093A true JP2010157093A (ja) 2010-07-15
JP5262705B2 JP5262705B2 (ja) 2013-08-14

Family

ID=42574988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008334950A Expired - Fee Related JP5262705B2 (ja) 2008-12-26 2008-12-26 運動推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5262705B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168788A (ja) * 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
WO2012137621A1 (ja) * 2011-04-07 2012-10-11 富士フイルム株式会社 画像処理方法及び装置
JP2013182330A (ja) * 2012-02-29 2013-09-12 Canon Inc 画像処理装置および画像処理方法
CN103903434A (zh) * 2012-12-28 2014-07-02 重庆凯泽科技有限公司 基于图像处理的智能交通系统
WO2016103651A1 (ja) * 2014-12-22 2016-06-30 日本電気株式会社 情報処理システム、情報処理方法、及び、記録媒体
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JP2019032751A (ja) * 2017-08-09 2019-02-28 株式会社東芝 カメラ運動推定装置、カメラ運動推定方法及びプログラム
JP2020085850A (ja) * 2018-11-30 2020-06-04 株式会社ゼンリンデータコム 情報提供装置、情報提供方法及びプログラム
WO2022064641A1 (ja) * 2020-09-25 2022-03-31 日本電気株式会社 車両行動推定装置、不安全運転検出装置、方法、及びコンピュータ可読媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350897A (ja) * 2005-06-20 2006-12-28 Toyota Central Res & Dev Lab Inc 運動計測装置
JP2008005109A (ja) * 2006-06-21 2008-01-10 Sony Corp 手振れ補正方法、手振れ補正方法のプログラム、手振れ補正方法のプログラムを記録した記録媒体及び手振れ補正装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350897A (ja) * 2005-06-20 2006-12-28 Toyota Central Res & Dev Lab Inc 運動計測装置
JP2008005109A (ja) * 2006-06-21 2008-01-10 Sony Corp 手振れ補正方法、手振れ補正方法のプログラム、手振れ補正方法のプログラムを記録した記録媒体及び手振れ補正装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200700763009; 東 はるか: '装着型全方位監視に向けて -小型センサの試作と動物体検出法の提案-' 情報処理学会研究報告 第2007巻 第42号, 20070514, p.89-96, 社団法人情報処理学会 *
JPN6012046052; 東 はるか: '装着型全方位監視に向けて -小型センサの試作と動物体検出法の提案-' 情報処理学会研究報告 第2007巻 第42号, 20070514, p.89-96, 社団法人情報処理学会 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168788A (ja) * 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
WO2012137621A1 (ja) * 2011-04-07 2012-10-11 富士フイルム株式会社 画像処理方法及び装置
CN103460248A (zh) * 2011-04-07 2013-12-18 富士胶片株式会社 图像处理方法和装置
JP5457606B2 (ja) * 2011-04-07 2014-04-02 富士フイルム株式会社 画像処理方法及び装置
CN103460248B (zh) * 2011-04-07 2015-04-22 富士胶片株式会社 图像处理方法和装置
JP2013182330A (ja) * 2012-02-29 2013-09-12 Canon Inc 画像処理装置および画像処理方法
CN103903434A (zh) * 2012-12-28 2014-07-02 重庆凯泽科技有限公司 基于图像处理的智能交通系统
CN103903434B (zh) * 2012-12-28 2015-11-04 重庆凯泽科技有限公司 基于图像处理的智能交通系统
WO2016103651A1 (ja) * 2014-12-22 2016-06-30 日本電気株式会社 情報処理システム、情報処理方法、及び、記録媒体
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JPWO2018235219A1 (ja) * 2017-06-22 2020-03-19 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JP2019032751A (ja) * 2017-08-09 2019-02-28 株式会社東芝 カメラ運動推定装置、カメラ運動推定方法及びプログラム
US10916018B2 (en) 2017-08-09 2021-02-09 Kabushiki Kaisha Toshiba Camera motion estimation device, camera motion estimation method, and computer program product
JP2020085850A (ja) * 2018-11-30 2020-06-04 株式会社ゼンリンデータコム 情報提供装置、情報提供方法及びプログラム
WO2022064641A1 (ja) * 2020-09-25 2022-03-31 日本電気株式会社 車両行動推定装置、不安全運転検出装置、方法、及びコンピュータ可読媒体
JP7416276B2 (ja) 2020-09-25 2024-01-17 日本電気株式会社 不安全運転検出装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP5262705B2 (ja) 2013-08-14

Similar Documents

Publication Publication Date Title
JP5262705B2 (ja) 運動推定装置及びプログラム
JP6305171B2 (ja) シーン内の物体を検出する方法
US9002099B2 (en) Learning-based estimation of hand and finger pose
JP4825253B2 (ja) 可変形オブジェクト認識のためのシステムおよび方法
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
JP5498454B2 (ja) 追跡装置、追跡方法およびプログラム
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
EP3376433B1 (en) Image processing apparatus, image processing method, and image processing program
CN110084830B (zh) 一种视频运动目标检测与跟踪方法
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP4935769B2 (ja) 平面領域推定装置及びプログラム
JP4918615B2 (ja) 対象個数検出装置および対象個数検出方法
CN109685002B (zh) 一种数据集采集方法、系统以及电子装置
CN106406507B (zh) 图像处理方法以及电子设备
CN114846513A (zh) 动作分析系统和动作分析程序
JP5032415B2 (ja) 運動推定装置及びプログラム
KR101528757B1 (ko) 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법
KR20100073366A (ko) 변화값 템플릿을 이용한 객체 모델링 방법 및 그 시스템
JP4894747B2 (ja) 部分領域検出装置、対象物識別装置、及びプログラム
JP2007257489A (ja) 画像処理装置および画像処理方法
KR101175751B1 (ko) 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법
KR101357581B1 (ko) 깊이 정보 기반 사람의 피부 영역 검출 방법
JP2009205695A (ja) 対象個数検出装置および対象個数検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R151 Written notification of patent or utility model registration

Ref document number: 5262705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees