JP2011053823A - 特徴量抽出装置及び方法、並びに位置推定装置及び方法 - Google Patents

特徴量抽出装置及び方法、並びに位置推定装置及び方法 Download PDF

Info

Publication number
JP2011053823A
JP2011053823A JP2009200764A JP2009200764A JP2011053823A JP 2011053823 A JP2011053823 A JP 2011053823A JP 2009200764 A JP2009200764 A JP 2009200764A JP 2009200764 A JP2009200764 A JP 2009200764A JP 2011053823 A JP2011053823 A JP 2011053823A
Authority
JP
Japan
Prior art keywords
feature amount
feature
continuous
local
invariant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009200764A
Other languages
English (en)
Other versions
JP5305031B2 (ja
Inventor
Osamu Hasegawa
修 長谷川
Aram Kawewong
カーウィーウォン アラム
Sirinart Tangruamsub
タンロアムサプ シリナート
Murahito Hattori
祐人 服部
Shokei Tsuchinaga
将慶 土永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Toyota Motor Corp
Original Assignee
Tokyo Institute of Technology NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC, Toyota Motor Corp filed Critical Tokyo Institute of Technology NUC
Priority to JP2009200764A priority Critical patent/JP5305031B2/ja
Publication of JP2011053823A publication Critical patent/JP2011053823A/ja
Application granted granted Critical
Publication of JP5305031B2 publication Critical patent/JP5305031B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】位置の変化にロバストな特徴量を抽出する特徴量抽出装置及び方法、並びにそれを搭載した位置推定装置及び方法を提供する。
【解決手段】位置推定装置は、連続して撮影された連続画像からなる入力画像から不変特徴量を抽出する特徴量抽出部20と、その不変特徴量に基づき位置を推定する位置推定部手段とを有する。特徴量抽出部20は、入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出部21と、局所特徴量抽出部21により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング部22と、特徴量マッチング部22により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択部23と、各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出部24とを有する。
【選択図】図1

Description

本発明は、入力画像から局所特徴量を抽出する特徴量抽出装置及び方法、並びにこれを使用した位置推定装置及び方法に関する。
自己位置の特定は、人間や機械にとっては必須の能力である。今自分はどこにいるかということを知ることは、ロボットやコンピュータビジョンにとっては、常に重要である。特に、可動式のロボットにとって、世界で自分がどこにいるかを知ることは、ナビゲーションシステムのための基本的要求である。
このような自己位置同定には、局所特徴をいかに正確に抽出するかが大きなポイントとなる。従来、アフィン不変の特徴量(MSER, Harris-Affine, Hessian-Affine, Salient Regionなど)や、大きさ変化に不変な特徴量(SIFT:非特許文献1), SURF(非特許文献2)がある。
D. G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," Int'l Jour. Computer Vision, vol. 60, no. 2, pp. 91-110, 2004 H. Bay, T. Tuytelaars and L. V. Gool, "SURF: Speeded Up Robust Features," Proc. European Conf. Computer Vision, 2006
しかしながら、これらの特徴量には、以下の問題点がある。先ず、同一のものを異なった位置から撮影した場合、従来の局所特徴をそのまま抽出したのでは、マッチングのとれない異なった局所特徴も大量に抽出してしまう。次に、同一のものとして認識させたい場合であっても、ある程度見え方に変化がある場合、それぞれの見え方について全ての局所特徴を学習しなければならず、記憶容量の使用効率が悪い。さらに、ある一つの見え方の場合のみ出現している特徴などは誤認識の元となる場合もあり、従来の局所特徴をそのまま用いた場合、とてもノイズの多い特徴量となってしまう。
また、従来のアフィン変化と、大きさ変化の両方に対応した特徴量は研究途上であり、有用な方法は報告されていない。
本発明は、このような問題点を解決するためになされたものであり、位置の変化にロバストな特徴量を抽出する特徴量抽出装置、及びそれを搭載した位置推定装置を提供することを目的とする。
本発明に係る位置推定装置は、連続して撮影された連続画像からなる入力画像から不変特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段が抽出した前記不変特徴量に基づき位置を推定する位置推定手段とを有し、前記特徴量抽出手段は、前記入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択手段と、各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出手段とを有するものである。
本発明においては、連続して撮影された画像を使用し、連続する2枚の画像間で特徴量のマッチングをとり、さらにマッチングを取った特徴量が連続して出現するもののみを抽出し、その平均の局所特徴量を求めることで、撮影位置の変化にロバストな特徴を抽出することができ、それを使用して位置を推定するため、正確に位置を特定することが可能となる。連続画像とは、ビデオ画像から取得される連続的に撮影された複数枚の画像セットである。
ここで、前記位置推定手段は、教師画像を入力画像とし、複数の当該教師画像から抽出した前記不変特徴量と当該不変特徴量を抽出したエリアを示すエリア識別情報とを対応づけたエリアデータベースを格納する記憶手段と、周囲を撮影した画像を入力画像とし、前記局所特徴量抽出手段により抽出した前記入力画像の複数の局所特徴量のそれぞれと、前記エリアデータベースに登録された前記不変特徴量とのマッチングを取り、各局所特徴量にマッチする不変特徴量に対応するエリアに投票し、得票数が最大となったエリアを現在の位置として推定する推定結果出力手段とを有するものとすることができる。学習等によりエリアデータベースを構築することで、様々な位置の特定が可能である。
また、前記位置推定手段は、前記得票数が所定の閾値未満である場合は、当該エリアを未学習エリアとして認識することができる。これにより、位置が定かではない場合、エリアを特定しないため、不正確な推定を行わないようにすることができ、当該エリアを未学習エリアとすることで、再度の学習を的確に行うことができる。
さらに、前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)及び/又はSURF(Speed Up Robustness Features)の特徴量とすることができる。また、これらSIFTやSURFに限らず、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることも可能である。これにより、これら既存の局所特徴量を用いることで、これらの特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。
また、前記データベースを最適化する最適化手段を有し、前記最適化手段は、前記不変特徴量を構成する複数の個別不変特徴量のうち、冗長な個別不変特徴量を削除することができる。これにより、データベースの容量を削減することができる。
さらに、前記最適化手段は、前記教師画像を再使用し、当該教師画像を識別するために使用された個別不変特徴量に投票し、当該投票結果に応じて冗長な個別特徴量を削除することができる。これにより、識別能力の低い個別不変特徴量を削除することができ、容量の削減により識別能力の低下を抑制することができる。
さらにまた、前記最適化手段は、前記最適化をオフライン又はオンラインで行うことができる。最適化の方法により、オンラインかオフラインかを選択することができる。
また、前記最適化手段は、前記エリアデータベースに登録された前記不変特徴量及び前記エリア識別情報について、冗長なデータを削除するようにすることができる。これにより、データベースの容量を削減することができる。
さらに、前記冗長なデータは、前記エリア識別情報が示すエリアに再び移動する蓋然性が低いものとすることができる。これにより、しばらく使用していないようなデータを削除することができる。
本発明に係る特徴量抽出装置は、連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択手段と、各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出手段とを有するものである。
本発明によれば、撮影位置の変化に頑健な局所特徴量を抽出することができる特徴量抽出装置及び方法、並びにそれを使用した位置推定装置及び方法を提供することができる。
本発明の実施の形態にかかる位置推定装置を示す図である。 本実施の形態にかかる特徴量PIRFを抽出する方法を説明する図である。 本発明の実施の形態の不変特徴量抽出方法を示すフローチャートである。 入力画像がいずれのプレイスであるかを推定する方法を説明する図である。 本発明の実施例1で使用する画像を示す図である。 本発明の実施例1の結果を示す図である。 本発明の実施例2の結果を示す図である。 本発明の実施例3の結果を示す図である。 本発明の実施例4の結果を示す図である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、撮影位置の変化に頑健な局所特徴量を抽出可能な特徴量抽出装置を搭載した位置推定装置に適用したものである。なお、本発明は、例えば、実環境画像に対するシーン認識・物体認識などにも応用することが可能である。
図1は、本発明の実施の形態にかかる位置推定装置を示す図である。本実施の形態にかかる位置推定装置1は、連続して撮影された連続画像からなる入力画像から不変特徴量を抽出する特徴量抽出部20と、特徴量抽出部20が抽出した前記不変特徴量に基づき対象位置を推定する位置推定部10とを有する。
特徴量抽出部20は、入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出部21と、局所特徴量抽出部21により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング部22と、特徴量マッチング部22により所定数連続する画像間でマッチングが取れた特徴量を連続特徴量として選択する連続特徴量選択部23と、各連続特徴量の平均を不変特徴量として求める不変特徴量算出部24とを有する。
位置推定部10は、エリアデータベース11を格納する記憶部12と、推定結果出力部13と、データベースを最適化するDB最適化部14とを有する。エリアデータベース11には、教師画像を入力画像とし、複数の当該教師画像から抽出した不変特徴量と当該不変特徴量を抽出したエリアを示すエリア識別情報とが対応づけて格納されている。また、推定結果出力部13は、位置を特定したい画像を入力画像とし、局所特徴量抽出部21により抽出した入力画像の複数の局所特徴量のそれぞれと、エリアデータベース11に登録された不変特徴量とのマッチングを取り、各局所特徴量にマッチする不変特徴量に対応するエリアに投票し、得票数が最大となったエリアを特定対象の位置として推定する。
以下の説明においては、不変特徴量算出部24が抽出する不変特徴量のことを、特徴量PIRF(Position-Invariant Robust Features)ということとし、先ず、この特徴量PIRFを抽出する特徴量抽出部20について詳細に説明する。特徴量抽出部20は、撮影位置の変化に影響を受けにくい(局所)特徴量として特徴量PIRFを抽出する。
これは、本願発明者が実環境における移動ロボットの自己位置推定問題を解決すべく鋭意実験研究した結果、近くの対象については撮影位置や撮影時間帯の変化による見え方の差(特徴量変化)が大きいが、遠くの対象については変化が小さい(ランドマークの特徴量はあまり変化しない)ことから、本特徴量PIRFを抽出する方法を見出した。
本実施の形態にかかる特徴量抽出部20は、簡単には、連続画像間で局所特徴のマッチングを行い、予め定めた枚数間で、連続してマッチングのとれている特徴を選択し、選択された特徴において、それとマッチングのとれている全特徴の平均を特徴量PIRFとして抽出・記述するものである。
この特徴量抽出部20により撮影位置の変化に頑健な局所特徴のみを抽出・記述することができる。また、記述子としては、局所特徴であれば様々なものが適用可能であり、上述のように既存の局所特徴量を用いることで、既存の特徴量が持つ性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる
以下、各ブロックについて詳細に説明する。図2は、本実施の形態にかかる特徴量PIRFを抽出する方法を説明する図である。局所特徴量抽出部21には、連続して撮影された連続画像が入力画像として入力される。ここで、PIRFで要求される連続画像とは、ある画像セットであって、一定のフレームで、例えば1秒毎に2フレームなど、毎秒毎に連続的に撮影されたビデオ画像をいう。すなわち、ビデオからキャプチャされた画像は一般的に連続的であり、PIRFにおける連続画像は、ビデオ画像を使用したものでなければならない。画像の取得率は、カメラの速度に応じて設定される。たとえば、カメラが車に搭載されていた場合、カメラの速度は1分間に約1000m/分であり、ビデオからキャプチャされる連続画像はおよそ50乃至100フレーム/秒となる。
本実施の形態においては、入力画像として全方位画像を用い、連続する画像は、1つのプレイス(place)を撮影したものを使用する。後述するように、このプレイスとは、例えば交差点から交差点までのある領域とする。当該プレイスは、いくつかの連続画像からなる複数のサブプレイスに分割される。すなわち、1つのプレイスは、複数のサブプレイスから構成される。このサブプレイス毎に1又は複数の不変特徴量を抽出する。この不変特徴量の集合をサブプレイスPIRF辞書(PIRF-dictionary)という。1つのプレイスから抽出された全不変特徴量の集合、すなわち、上記サブプレイスPIRF辞書の集合によりPIRF辞書が構成される。1つのプレイスには1つのPIRF辞書が対応する。このサブプレイスPIRF辞書及びPIRF辞書が抽出されたプレイスの識別情報が、PIRF辞書と共に上述のエリアデータベース11に格納される。
先ず、局所特徴量抽出部21は、既存の局所特徴量抽出方法を使用して局所特徴量を抽出する。局所特徴量抽出部21は、例えば、SIFT(Scale Invariant Feature Transformation)、又はSURF(Speed Up Robustness Features)の特徴量を使用することができる。または、これらSIFTやSURFに限らず、他の局所特徴量を使用することができることは勿論である。特に、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることが好ましい。これらの局所特徴量を用いることで、既存の特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。ここで、i番目のエリアにおける全方位画像の数をnとし、その中でj番目の画像から抽出された局所特徴量の集合をU とする。ここでは、局所特徴量はu→で表す。
次に、特徴量マッチング部22が、連続する2枚の画像間全てについて局所特徴量u→を構成する各特徴量のマッチングを行う。すなわち、j=q番目の画像の全局所特徴量について、j=q+1番目の画像の全局所特徴量に対してマッチングを行う。ここでは、それぞれマッチングのとれた特徴へのインデックスをマッチング結果ベクトルm →として求める。
ここで、マッチング方法の一例について、SIFTを例にとって説明する。画像Iから抽出される特徴をvとする。この特徴vが次の画像Ia+1の特徴v'とマッチングするか否かを判定する。先ず、特徴vと画像Ia+1から抽出した全ての特徴との間のドット積(dot product)を求める。そして、最も類似する特徴vfirstと、2番目に類似する特徴vsecondを求めるために、この結果をソートする。もし、
(vfirst・v)/(vsecond・v)>θ
が成立する場合、マッチングのとれた特徴v'=vfirstと判定する。ここで、閾値θはたとえば0.6とすることができる。上記が成立しない場合は、画像Iにおける特徴vにマッチングする特徴は、画像Ia+1には存在しないと判定する。
図2に示すように、各入力画像から6つの局所特徴量が抽出された場合について説明する。これら6つの局所特徴量間でマッチングを取り、マッチングが取れた場合にのみ、マッチングが取れた特徴量へのインデックスを付す。例えば、m →の1番目の局所特徴量は、m →の3番目の局所特徴量とマッチングがとれていることを示し、m →の3番目の特徴量は、m →の6番目の特徴量とマッチングが取れていることを示す。
次に、連続特徴量選択部23が連続特徴量を選択する。先ず、いくつのm →を使用して連続特徴量を求めるかを決定する。このm →の数を、本明細書においては、ウィンドウサイズwともいう。また、このウィンドウサイズwに含まれるm →の集合を、サブプレイスという。ここで、ウィンドウサイズwが大きいほどより頑健な、識別力の高い連続特徴量のみを抽出できるが、大きすぎると特徴数が極端に少なくなってしまう。また、小さすぎると、頑健ではない、識別力のないような特徴量も抽出してしまうので、目的等に応じて最適な大きさとする必要がある。
本実施の形態においては、ウィンドウサイズwを3とする。したがって、連続する4枚の入力画像を使用して連続特徴量を求める。すなわち、図2に示すように、1番目のサブプレイスには、m →、m →、m →が含まれ、入力画像I、I、I、Iが対応する。なお、インデックスの数が0の場合は、次にマッチングする特徴量がないことを示す。よって、図2の場合、1番目のサブプレイスには、3つの連続特徴量が含まれることになる。
連続特徴量選択部23は、ウィンドウサイズwを設定したらこのウィンドウwをひとつずつずらしながら、そのウィンドウサイズに含まれる全方位画像4枚内で共通して出現する特徴を連続特徴量として抽出する。ウィンドウサイズwを設定したら、連続特徴量を抽出するために用いる関数を以下のように定義する。ただし、bは注目するインデックスベクトルの番号とする。
そして、全てのマッチング結果ベクトルm →について、f(mx,y )を計算し、f(mx,y )>0となるときの局所特徴量ux,y →のみを抽出する。入力画像の数がn、ウィンドウサイズがwのとき、サブプレイスの数は、n−w+1となる。
不変特徴量算出部24は、同一ウィンドウグループであるサブプレイス内においてマッチングがとれた局所特徴量の平均を求める。これらの平均値からなるベクトルによりPIFR辞書が構成される。全サブプレイス(n−w+1)個から抽出された(n−w+1)個のサブプレイスPIFR辞書(D ,j≦n−w+1)をPIRF辞書(D)に登録する。このPIFR辞書を構成する、マッチングがとれた局所特徴量の平均各がPIRFである。
次に、特徴量抽出部の不変特徴量PIFRの抽出方法について説明する。図3は、不変特徴量抽出方法を示すフローチャートである。先ず、i=1、j=1に初期化する(ステップS1)。ここで、nは、プレイスAに属する画像の枚数であり、wは、PIRFを抽出するウィンドウサイズである。
次に、エリアAの画像Iを入力する(ステップS2)。そして、iがウィンドウサイズwより大きいか否かを判定する(ステップS3)。iがウィンドウサイズw以下である場合は、iをインクリメントし(ステップS10)、ステップS2に戻る。
一方、ウィンドウサイズwより大きい場合は、画像Iと画像Ii−1の間でマッチングを取る(ステップS4)。そして、w+1枚の連続する入力画像(Ii−w,…,I)から安定している局所特徴量(SIFT)を抽出する(ステップS5)。ここで、本実施の形態においては、ウィンドウサイズwを3に設定している。ウィンドウサイズwは、何枚の連続画像からPIRFを抽出するかを示す。たとえば、ウィンドウサイズwを3に設定した場合、PIRFは4つの連続画像に連続して現れる特徴があるときにのみ得られる。従って、あるプレイスAの画像イメージが4枚より少ない場合、3つの2画像間で一致する特徴を見つけるのに十分ではない。よって、画像が少なくとも4枚であるとき、プレイスAからのPIRFの抽出をスタートすることができる。例えば、現在の画像がIであるとき、PIRFは、4枚の連続画像I、I、I、Iから求めることができる。
次に、抽出した安定した局所特徴量の平均をPIRFとして算出する(ステップS6)。次いで、エリアAに含まれるPIRFを収集し、PIRF辞書Dに登録する(ステップS7)。そして、i=nであるか否かが判断され、i=nであれば、i=1、j=j+1とし、ステップS2からの処理を繰り返す(ステップS9)。i=nではない場合は、ステップS10に進み、iをインクリメントして、ステップS2に戻る。
次に位置推定部10について説明する。上述したように、位置推定部10の記憶部12は、エリアデータベース11を有する。エリアデータベース11には、エリア(プレイス)を識別するためのエリア識別情報と、当該エリアに含まれる不変特徴量PIRF(PIRF辞書)とが対応づけられ、登録されている。このエリアデータベース11は、予めエリア識別情報が対応づけられた教師画像から、特徴量抽出部20を使用して不変特徴量PIRFを抽出して登録するという学習により生成されたものである。
ここで、本実施の形態においては、位置推定装置がある特定の位置を特定対象の位置として推定するのではなく、ある一定の範囲のある領域をエリアとして認識する場合について説明する。なお、位置推定装置が現在の位置を推定するものとして構成してもよい。
ところで、本実施の形態においては、特徴量抽出部20により位置推定装置1自身でエリアデータベース11を生成する。このため、例えば、ロボット装置に当該位置推定装置1を搭載した場合、ロボット装置が先ず撮像手段により、認識したいエリアを移動しながら当該エリアの連続画像を取得し、当該エリアを識別するための識別情報を対応づける。そして、識別情報を対応づけた連続画像を教師画像とし、特徴量抽出部20により、不変特徴量PIRF(PIRF辞書)を抽出する。これを識別情報と共にエリアデータベース11に登録することで、エリアデータベース11を構築する。この場合、必要に応じて、例えば未知のエリアに侵入した場合、その未知エリアを学習し、エリアデータベース11を更新するなどすることができる。なお、予めエリアデータベース11を準備しておき、それを利用することも勿論可能である。
ロボット装置が自己位置を推定する場合、周囲を撮影した画像を入力画像とし、局所特徴量抽出部21によりその入力画像から複数の局所特徴量を抽出する。推定結果出力部13は、抽出した局所特徴量と、エリアデータベース11に登録されているPIRF辞書に含まれるPIRFとのマッチングを取り、各局所特徴量にマッチする不変特徴量を有するエリアに投票し、得票数が最大となったエリアを現在の自己位置として推定し、結果を出力する。図4は、入力画像がいずれのプレイスであるかを推定する方法を説明する図である。図4に示すように、ある環境には、5つのプレイスが含まれているとする。各プレイスは、それぞれPIRF辞書(D〜D)を有している。
先ず、入力画像(テスト画像)から、局所特徴量を抽出する。抽出された各局所特徴量と、各PIRF辞書に含まれる個別のPIRFとのマッチングをとる。これらのマッチングにより、最も多くのPIRFとマッチングが取れたPIRF辞書に対応するプレイスが、入力画像の属するプレイスである。図4においては、1枚目、2枚目とも入力画像は、すべて1つめのPIRF辞書Dとのマッチングがもっとも大きい。したがって、PIRF辞書Dに対応するプレイスが入力画像のプレイスとなる。
ここで、局所特徴量抽出部21は、得票数が所定の閾値未満である場合は、当該エリアを未学習エリアとして認識するものとする。これにより、正確にエリアを推定できない場合は、エリアを特定しないので、確実に特定できるエリアのみを出力することができる。また、不確かな推定を行わないだけでなく、適切な追加学習を行う等の処理を行うことができる。
次に、DB最適化部14について説明する。1つのPIRF辞書は、1つのプレイスに対応する。したがって、認識したプレイスの数だけPIRF辞書が生成される。したがって、多数のプレイスを認識すればするほど、PIRF辞書の数も増え、そのメモリ容量も増大する。本位置推定装置1をロボット装置に搭載した場合、例えば訪れた場所(プレイス)の数のPIRF辞書を学習することになる。しかしながら、ロボット装置の記憶容量は有限である。したがって、エリアデータベース11の容量を最適化する必要がある。
すなわち、エリアデータベース11のデータ容量を削減する必要がある場合がある。このような場合、2通りのデータ削減方法が考えられる。1つは、PIRF辞書を構成する個別のPIFRの個数を減らす方法であり、他は、PIRF辞書自体の個数を減らす方法である。
先ず、PIRF辞書を構成する個別のPIFRの削減方法について説明する。DB最適化部14は、PIFR辞書を構成する複数のPIFR(個別不変特徴量)のうち、冗長なものを削除することで、PIRF辞書に含まれる個別のPIRFの個数を最適化する。
DB最適化部14は、エリアデータベース11を構築する際に使用した教師画像を再使用する。そして、各教師画像を識別するために使用された個別の不変特徴量に対し投票を行い、当該投票結果に応じて冗長な個別特徴量を削除する。すなわち、識別にあまり使用されない識別能力が低いPIRFを削除する。例えば、投票0で、一度も識別に使用されなかったPIRFは、削除しても何ら性能に影響がない。なお、このような最適化は、ある程度まとまった教師画像が必要であり、バッチテストであるため、ロボット装置に搭載した場合は、オフライン作業となる。
例えば、東京タワーや富士山のように高いもの、象徴的なものは、複数のプレイスに特徴量としてそのPIRFが抽出される場合がある。このようなPIRFはプレイスの識別能力が低いPIRFとして削除することができる。
次に、他の方法として、PIRF辞書自体の個数を減らす最適化について説明する。この場合、DB最適化部14は、エリアデータベース11に登録されたPIRF辞書に対応する各プレイスについて、不適切な、冗長なPIRF辞書を削除する。例えば、ロボット装置であれば、再び移動する蓋然性が低いプレイスについてのデータ、すなわち再び使用する蓋然性が低いPIRF辞書を削除することができる。これは、例えば、ある一定期間以上使用しなかったPIRF辞書を削除するようにするなどしればよい。当該動作は、人間の機能の忘れる、という機能に該当する。このような最適化は、そのつどロボット装置が行うことができるため、オンラインでの最適化が可能である。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の伝送媒体を介して伝送することにより提供することも可能である。
〔実施例1〕
実験データは、「ずずかけ台」と「大岡山」のキャンパス内で撮影した連続画像を使用した。画像サイズは640×428とした。すずかけ台キャンパスについては、580枚を学習に使用し、489枚をテストに利用した。大岡山キャンパスについては、450枚を学習に、493枚をテストに利用した。
図5(a)左図は、すずかけ台キャンパスを示し、23のプレイスに手動で分割した。図5(b)右図は、大岡山キャンパスを示し、13のプレイスに手動で分割した。すずかけ台キャンバスについては、天気の良い休日の昼間に教師画像を取得した。テスト画像としては、平日の様々な天気のもと取得した画像を使用した。大岡山キャンパスについては、教師画像及びテスト画像は、共に平日の様々な天気のものランダムに3か月間で取得した画像を使用した。
図5(b)左上図は、プレイスA21を示し、左下図はプレイスA1を示す。教師画像は、休日に収集した(左上図)のに対し、テスト画像は、平日に収集した(右上図)。いくつかの教師画像は昼間撮影し(左下図)、テスト画像は夕方取得した(右下図)。
図5(c)は、COLDデータセットの「Ljubljana lab.」のサンプル画像を示す。プリンターエリア、廊下、シェア部屋、バスルームの4カ所を使用し、曇り、晴れ、夜の環境で撮影されたもで、それぞれ2つずつの連続画像を利用した。約6000の連続画像があり、サイズは640×480である。図5(d)は、図5(c)に対応する場所であって、夜間に撮影されたものを示す。
比較手法としては、特徴量にそれぞれGIST(A. Torralba, K. P. Murphy, W. T. Freeman and M. A. Rubin, "Context‐Based Vision System for Place and Object Recognition," Proc. IEEE Int'l Conf. Computer Vision, pp. 1023‐1029, 2003)とsPACT(J. Wu and J. M. Rehg, "Where am I: Place instance and category recognition using spatial PACT," Proc. IEEE Int'l Conf. Computer Vision and Pattern Recognition, 2008.)を利用し、識別器としてそれぞれに1-NN(1-nearest neighbor)とSVM(Support Vector Machine)を用いた場合の計4手法を使用した。
図6(a)は実験結果及びそれぞれの手法での精度を示す図である。PIRFの結果は一番右であり、他手法に比べて2倍以上性能がよいことが確認できた。左がすずかけ台キャンパス、右が大岡山キャンパスでの実験結果を示す。ず6(b)は、すずかけ台キャンパスでの認識結果の混合行列を示す。行が正解を示し、列が推測結果を示す。また図6(c)は各テスト画像に対する信頼値を示すグラフ図である。平均線は3次多項式を使用した。正しい認識結果の時の信頼値は平均して高く、誤認識した際の信頼値は平均して低いことが確認でき、認識結果の信頼度も正しい相関関係が見て取れる。図6(d)は、各テスト画像の認識時間を示している。PIRF−nはPIRFをn%まで削減した場合の結果を示す。一番下の実線はPIRF−50で投票処理を並列に実行した場合の結果を示している。PIRFの数を削減することによって認識時間を削減することが可能であり、さらに、並列処理を加えることによって既存手法と同程度の認識時間を達成できる。なお、いずれの削減量においても、既存手法よりも優れた認識精度を維持している。
本実施例により、屋外における場所認識の実験において、他の識別手法に比して、精度が高いことが確認できた。
〔実施例2〕
COLDのデータセット(M. M. Ullah, A. Pronobis, B. Caputo, J. Luo, P. Jensfelt and H.I. Christensen, "Towards Robust Place Recognition for Robot Localization," Proc. IEEE Int'l Conf. Robotics and Automation, pp.530‐537, 2008)の一部(図6(c)、(d))を用いて実験を行なった。屋内の4カ所について、晴れ、曇り、夜の3つの環境下で撮影した連続画像があり、それぞれについて2組の連続画像が存在する。よって、計6つの連続画像があり、それらを6-fold cross-validationとして評価した。図7は、本実施例の結果を示す図である。図7(a)は、晴れで学習した場合、図7(b)は、曇りで学習した場合、図7(c)は、夜で学習した場合を示す。
図7(a)乃至図7(c)において、左から、晴れ、曇り、夜、平均での結果を示す。それぞれの結果のうち、左からPIRF、Harris-Lasplace+SVM、sPACT+NN、Gist+NNでの結果を示す。
本実施例により、他手法と同等の精度が得られることが確認できた。
〔実施例3〕
実施例1及び実施例2で用いたデータセットを混合したもので場所認識の実験を行なった。その結果を図8に示す。行は正解クラス、列は推測結果のクラスを表す。それぞれのデータセットの平均認識精度は、COLDのデータセット:95.12%、すずかけ台キャンパスのデータ:86.56%、大岡山キャンパスのデータ:76.06%であった。
本実施例により、屋内や屋外のデータが混ざっていても、また、各場所について学習データの量に大きな差があったとしても、利用可能な手法であることが確認できた。
〔実施例4〕
実験1のデータセットを用いて、PIRFをISC(C. Valgren, T. Duckett and A. Lilienthal, "Incremental Spectral Clustering and Its Application to Topological Mapping," Proc. IEEE Int'l Conf. Robotics and Automation, 2007、C. Valgren and A. Lilienthal, "Incremental Spectral Clustering and Seasons: Appearance‐Based Localization in Outdoor Environments," Proc. IEEE Int'l Conf. Robotics and Automation, 2008)のような追加的なアピアランスベースのトポロジカルマッピングに利用した。図9は、その結果を示す図である。図9(a)は、各画像の演算時間を示し、上グラフ(長時間側)がISCであり、下グラフがPIRFの結果である。また、図9(b)は、積算時間を示し、同じくISCがPIRFよりより長時間かかっている。図9(c)は、認識率と、最初の100枚をテストした時間を示す。図において、一番上のグラフがISであり、下側の3つのグラフが、PIRF−75、PIRF−50、PIRF−25の結果を示している。PIRF−75、PIRF−50、PIRF−25とは、それぞれPIRFを75%、50%、25%に減らしたものである。
図9(a)及び(b)から、従来手法のISCより明らかに高速に実行することができることが確認できた。また、その際の精度は、従来手法のISCは40.29%であるのに対して、PIRFを用いた場合は93.48%であり、精度においても高性能であることが確認できた。
本実施例により、PIRFがISCのような追加的なアピアランスベースのトポロジカルマッピングにも利用でき、かつ、ISCよりも高速に実行できることが確認できた。
1 位置推定装置
10 位置推定部
11 エリアデータベース
12 記憶部
13 推定結果出力部
14 最適化部
20 特徴量抽出部
21 局所特徴量抽出部
22 特徴量マッチング部
23 連続特徴量選択部
24 不変特徴量算出部

Claims (15)

  1. 連続して撮影された連続画像からなる入力画像から不変特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段が抽出した前記不変特徴量に基づき位置を推定する位置推定手段とを有し、
    前記特徴量抽出手段は、
    前記入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択手段と、
    各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出手段とを有する、位置推定装置。
  2. 前記位置推定手段は、教師画像を入力画像とし、複数の当該教師画像から抽出した前記不変特徴量と当該不変特徴量を抽出したエリアを示すエリア識別情報とを対応づけたエリアデータベースを格納する記憶手段と、
    周囲を撮影した画像を入力画像とし、前記局所特徴量抽出手段により抽出した前記入力画像の複数の局所特徴量のそれぞれと、前記エリアデータベースに登録された前記不変特徴量とのマッチングを取り、各局所特徴量にマッチする不変特徴量に対応するエリアに投票し、得票数が最大となったエリアを現在の位置として推定する推定結果出力手段と、を有する、請求項1記載の位置推定装置。
  3. 前記位置推定手段は、前記得票数が所定の閾値未満である場合は、当該エリアを未学習エリアとして認識する、請求項1又は2項記載の位置推定装置。
  4. 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)及び/又はSURF(Speed Up Robustness Features)の特徴量である、請求項1乃至3のいずれか1項記載の位置推定装置。
  5. 前記データベースを最適化する最適化手段を有し、
    前記最適化手段は、前記不変特徴量を構成する複数の個別不変特徴量のうち、冗長な個別不変特徴量を削除する、請求項1乃至4のいずれか1項記載の位置推定装置。
  6. 前記最適化手段は、前記教師画像を再使用し、当該教師画像を識別するために使用された個別不変特徴量に投票し、当該投票結果に応じて冗長な個別特徴量を削除する、請求項5記載の位置推定装置。
  7. 前記最適化手段は、前記最適化をオフラインで行う、請求項5又は6記載のロボット装置。
  8. 前記最適化手段は、前記最適化をオンラインで行う、請求項5記載のロボット装置。
  9. 前記データベースを最適化する最適化手段を有し、
    前記最適化手段は、前記エリアデータベースに登録された前記不変特徴量及び前記エリア識別情報について、冗長なデータを削除する、請求項1乃至4のいずれか1項記載の位置推定装置。
  10. 前記冗長なデータは、前記エリア識別情報が示すエリアに再び移動する蓋然性が低いものである、請求項9記載の位置推定装置。
  11. 連続して撮影された連続画像からなる入力画像から不変特徴量を抽出する特徴量抽出工程と、
    前記特徴量抽出手段が抽出した前記不変特徴量に基づき位置を推定する位置推定工程とを有し、
    前記特徴量抽出工程は、
    前記入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出工程と、
    前記局所特徴量抽出工程により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
    前記特徴量マッチング工程により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択工程と、
    各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出工程とを有する、位置推定方法。
  12. 連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択手段と、
    各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出手段とを有する、特徴量抽出装置。
  13. 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)及び/又はSURF(Speed Up Robustness Features)の特徴量である、請求項12記載の特徴量抽出装置。
  14. 連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出工程と、
    前記局所特徴量抽出工程により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択工程と、
    各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出工程とを有する、特徴量抽出方法。
  15. 特徴量に基づき位置を推定する位置推定動作をコンピュータに実行させるためのプログラムであって、
    連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出工程と、
    前記局所特徴量抽出工程により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択工程と、
    各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出工程とを有する、ことを特徴とするプログラム。
JP2009200764A 2009-08-31 2009-08-31 特徴量抽出装置及び方法、並びに位置推定装置及び方法 Expired - Fee Related JP5305031B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009200764A JP5305031B2 (ja) 2009-08-31 2009-08-31 特徴量抽出装置及び方法、並びに位置推定装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009200764A JP5305031B2 (ja) 2009-08-31 2009-08-31 特徴量抽出装置及び方法、並びに位置推定装置及び方法

Publications (2)

Publication Number Publication Date
JP2011053823A true JP2011053823A (ja) 2011-03-17
JP5305031B2 JP5305031B2 (ja) 2013-10-02

Family

ID=43942780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009200764A Expired - Fee Related JP5305031B2 (ja) 2009-08-31 2009-08-31 特徴量抽出装置及び方法、並びに位置推定装置及び方法

Country Status (1)

Country Link
JP (1) JP5305031B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101313644B1 (ko) * 2011-11-28 2013-10-14 서울대학교산학협력단 동영상 디스클립터 재활용 방법
WO2014073204A1 (ja) 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
JP2017516248A (ja) * 2014-04-24 2017-06-15 ナント・ホールデイングス・アイ・ピー・エル・エル・シー 画像物体認識におけるロバスト特徴特定
US10366305B2 (en) 2016-02-24 2019-07-30 Soinn Inc. Feature value extraction method and feature value extraction apparatus
JP2019139642A (ja) * 2018-02-14 2019-08-22 清水建設株式会社 位置検出装置、位置検出システム、及び位置検出方法
US10861129B2 (en) 2016-03-08 2020-12-08 Nant Holdings Ip, Llc Image feature combination for image-based object recognition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004077165A (ja) * 2002-08-12 2004-03-11 Hitachi Ltd 欠陥分類方法及びその装置
JP2004310287A (ja) * 2003-04-03 2004-11-04 Toshiba Corp 人物認識装置および通行制御装置
JP2006216046A (ja) * 2005-02-01 2006-08-17 Mitsubishi Electric Research Laboratories Inc ビデオのフレームのシーケンスにおける背景をモデル化するコンピュータが実施する方法
JP2008243175A (ja) * 2007-02-26 2008-10-09 Sony Corp 情報処理装置および方法、並びにプログラム
JP2009020014A (ja) * 2007-07-12 2009-01-29 Toyota Motor Corp 自己位置推定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004077165A (ja) * 2002-08-12 2004-03-11 Hitachi Ltd 欠陥分類方法及びその装置
JP2004310287A (ja) * 2003-04-03 2004-11-04 Toshiba Corp 人物認識装置および通行制御装置
JP2006216046A (ja) * 2005-02-01 2006-08-17 Mitsubishi Electric Research Laboratories Inc ビデオのフレームのシーケンスにおける背景をモデル化するコンピュータが実施する方法
JP2008243175A (ja) * 2007-02-26 2008-10-09 Sony Corp 情報処理装置および方法、並びにプログラム
JP2009020014A (ja) * 2007-07-12 2009-01-29 Toyota Motor Corp 自己位置推定装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200501140007; 高氏  秀則: '未知環境におけるロバストタギング' 電気学会論文誌C 第125巻 第6号, 20050601, p.926-934, (社)電気学会 *
JPN6013021870; 高氏  秀則: '未知環境におけるロバストタギング' 電気学会論文誌C 第125巻 第6号, 20050601, p.926-934, (社)電気学会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101313644B1 (ko) * 2011-11-28 2013-10-14 서울대학교산학협력단 동영상 디스클립터 재활용 방법
WO2014073204A1 (ja) 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
US9396396B2 (en) 2012-11-06 2016-07-19 Soinn Holdings Llc Feature value extraction apparatus and place estimation apparatus
JP2017516248A (ja) * 2014-04-24 2017-06-15 ナント・ホールデイングス・アイ・ピー・エル・エル・シー 画像物体認識におけるロバスト特徴特定
US10331970B2 (en) 2014-04-24 2019-06-25 Nant Holdings Ip, Llc Robust feature identification for image-based object recognition
US10719731B2 (en) 2014-04-24 2020-07-21 Nant Holdings Ip, Llc Robust feature identification for image-based object recognition
US10366305B2 (en) 2016-02-24 2019-07-30 Soinn Inc. Feature value extraction method and feature value extraction apparatus
US10861129B2 (en) 2016-03-08 2020-12-08 Nant Holdings Ip, Llc Image feature combination for image-based object recognition
US11551329B2 (en) 2016-03-08 2023-01-10 Nant Holdings Ip, Llc Image feature combination for image-based object recognition
US11842458B2 (en) 2016-03-08 2023-12-12 Nant Holdings Ip, Llc Image feature combination for image-based object recognition
JP2019139642A (ja) * 2018-02-14 2019-08-22 清水建設株式会社 位置検出装置、位置検出システム、及び位置検出方法

Also Published As

Publication number Publication date
JP5305031B2 (ja) 2013-10-02

Similar Documents

Publication Publication Date Title
Masone et al. A survey on deep visual place recognition
Zhou et al. To learn or not to learn: Visual localization from essential matrices
CN111126360B (zh) 基于无监督联合多损失模型的跨域行人重识别方法
Himstedt et al. Large scale place recognition in 2D LIDAR scans using geometrical landmark relations
Lynen et al. Large-scale, real-time visual–inertial localization revisited
Kawewong et al. Online and incremental appearance-based SLAM in highly dynamic environments
Liu et al. Robotic room-level localization using multiple sets of sonar measurements
Lin et al. RSCM: Region selection and concurrency model for multi-class weather recognition
EP1530157B1 (en) Image matching system using 3-dimensional object model, image matching method, and image matching program
JP5305031B2 (ja) 特徴量抽出装置及び方法、並びに位置推定装置及び方法
Xia et al. Loop closure detection for visual SLAM using PCANet features
Cui et al. Efficient large-scale structure from motion by fusing auxiliary imaging information
US20180181842A1 (en) Method and device for quasi-gibbs structure sampling by deep permutation for person identity inference
Wang et al. Vision-based global localization using a visual vocabulary
Chen et al. Discriminative BoW framework for mobile landmark recognition
Zhang et al. 3-D laser-based multiclass and multiview object detection in cluttered indoor scenes
CN111428619A (zh) 基于有序回归和软标签的三维点云头部姿态估计系统和方法
Korrapati et al. Multi-resolution map building and loop closure with omnidirectional images
JP6764992B2 (ja) 検索システム、検索方法、及びプログラム
Kanji Unsupervised part-based scene modeling for visual robot localization
Wu et al. A vision-based indoor positioning method with high accuracy and efficiency based on self-optimized-ordered visual vocabulary
CN115050044B (zh) 一种基于MLP-Mixer的跨模态行人重识别方法
WO2019244276A1 (ja) 検索システム、検索方法、及びプログラム
WO2019244277A1 (ja) 検索システム、検索方法、及びプログラム
Hanif et al. Re-ranking person re-identification using distance aggregation of k-nearest neighbors hierarchical tree

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130610

R151 Written notification of patent or utility model registration

Ref document number: 5305031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees