JP2011215716A - 位置推定装置、位置推定方法及びプログラム - Google Patents

位置推定装置、位置推定方法及びプログラム Download PDF

Info

Publication number
JP2011215716A
JP2011215716A JP2010081027A JP2010081027A JP2011215716A JP 2011215716 A JP2011215716 A JP 2011215716A JP 2010081027 A JP2010081027 A JP 2010081027A JP 2010081027 A JP2010081027 A JP 2010081027A JP 2011215716 A JP2011215716 A JP 2011215716A
Authority
JP
Japan
Prior art keywords
registered
position estimation
matching
feature amount
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010081027A
Other languages
English (en)
Other versions
JP5557189B2 (ja
Inventor
Murahito Hattori
祐人 服部
Shokei Tsuchinaga
将慶 土永
Osamu Hasegawa
修 長谷川
Kawewong Aram
アラム カーウィーウォン
Noppharit Tongprasit
ノッパリット トンプラシット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Toyota Motor Corp
Original Assignee
Tokyo Institute of Technology NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC, Toyota Motor Corp filed Critical Tokyo Institute of Technology NUC
Priority to JP2010081027A priority Critical patent/JP5557189B2/ja
Publication of JP2011215716A publication Critical patent/JP2011215716A/ja
Application granted granted Critical
Publication of JP5557189B2 publication Critical patent/JP5557189B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】現在の位置が既に登録済みの場所であるか、未登録の場所であるかを認識することができる位置推定装置、位置推定方法及びプログラムを提供する。
【解決手段】位置推定装置1は、入力画像から局所特徴量を抽出する特徴量抽出部11と、各登録場所と局所特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング部13と、マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出部15と、類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する登録場所認定部17とを有する。
【選択図】図1

Description

本発明は、ロボット装置などに好適に使用され得る位置推定装置、位置推定方法及びプログラムに関し、特に局所特徴量を使用して位置推定する位置推定装置、位置推定方法及びプログラム関する。
自己位置の推定・特定は、人間や機械にとっては必須の能力である。今自分はどこにいるかということを知ることは、ロボットやコンピュータビジョンにとっては、常に重要である。特に、可動式のロボットにとって、今自分がどこにいるかを把握することは、ナビゲーションシステムのための基本的要求となっている。
従来、特許文献1に記載の位置検出装置がある。この位置検出装置では、移動体の前方視野の輝度画像を取得する輝度画像取得手段と、輝度画像取得手段と同一の視野を有し、輝度画像取得手段が輝度画像を取得するのと同時に距離画像を取得する距離画像取得手段と、少なくとも連続する2フレームの輝度画像からそれぞれ特徴点を抽出する特徴点抽出手段と、特徴点抽出手段によって抽出された特徴点の2フレーム間の位置の変位量を距離画像に基づいて算出し、当該変位量から自己位置を算出するための基準特徴点を選択する基準特徴点選択手段とを備えている。
特開2002−048513号公報
ところで、現在画像を撮影した場所が、ロボットが以前も訪れた場所であるか、又は全く知らない場所であるかを識別することは大変難しい。特徴量の抽出の仕方によっては、全く知らない場所をある場所に関連づけてしまうことがある。したがって、現在の位置がデータベースに登録済みの場所であるか、新しい場所であるかを切り分ける能力は大変重要である。また、当該撮影した場所が新しい場所であることが認識できれば、DBを拡大していく、すなわち、地図を学習していくことが可能になる。このような、移動体、特にロボット装置に好適に搭載される位置推定装置の開発が望まれている。
本発明は、このような問題点を解決するためになされたものであり、現在の位置が既に登録済みの場所であるか、未登録の場所であるかを認識することができる位置推定装置、位置推定方法及びプログラムを提供することを目的とする。
本発明に係る位置推定装置は、入力画像から局所特徴量を抽出する特徴量抽出手段と、各登録場所と局所特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング手段と、マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出手段と、前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する認定手段とを有するものである。
本発明においては、マッチングを取った後、近傍の登録場所を含めて類似度を算出することで、よりノイズに強く、正確に入力画像がデータベースに登録された登録画像であるか否かを推定することができる。
また、前記データベースは、前記各登録場所の局所特徴量を使用して作成された、いずれの登録場所にも属さない非登録場所及びその特徴量を有することができる。これにより、新規の場所の特定率を向上する。
更に、前記非登録場所は、各登録場所の局所特徴量の一部又は全部が対応付けられているものとすることができる。
更にまた、前記入力画像が、前記非登録場所と最もマッチングする場合、当該入力画像とその特徴量を新しい登録場所としてデータベースに登録することができる。これにより、データベースを更新することができる。
また、マッチングスコアは、前記データベースに含まれる登録場所の数及び当該登録場所のうち、入力画素とマッチングした登録場所の数に基づき算出されることができる。
更に、マッチングスコアをs、前記データベースに含まれる登録場所の数をn、当該登録場所のうち、入力画素とマッチングした登録場所の数をnwk=M、0<j<n、j≠i、mは、入力画像Mと現在のモデルMとの間でマッチした局所特徴量の数、k、i、j、tは整数としたとき、下記により前記マッチングスコアsを求めることができる。これにより、多くの登録モデルに存在する特徴量とマッチングした場合はスコアを低く、少数、例えばたった1つの登録モデルに存在する特徴量とマッチングした場合は、スコアを高く設定することができる。iは、データベースの中に登録されたインデックスを示す。
更にまた、前記類似度算出手段は、マッチングスコアと、ガウス分布から得られる遷移確率とに基づき類似度スコアを算出定することができる。類似スコアにより、更に位置特定率を向上することができる。
また、前記類似度スコアをβ、ガウシアンシグマ=2としたとき、iからkの距離を示す前記遷移確率をp(i,k)、考慮する隣接登録画像に関する値をω、i、kを整数とすると、下記により、前記類似度スコアβを求めることができる。類似度スコアにより、マッチングした登録画像の近傍場所のデータも考慮されることができる。
更に、前記類似度算出手段は、前記類似度スコアを正規化した正規化スコアを算出することができる。類似度スコアは、最もマッチする登録モデルと、これに類似する登録モデルがある場合、特徴量の多くが共通となるため、類似度スコアが当該類似する登録モデルとの方が高くなる場合があり得るため、正規化することが好ましい。
更にまた、前記認定手段は、前記類似度スコアから前記類似度スコアの標準偏差と平均値の和を引いた値が所定の閾値以上である場合、前記入力画像を前記登録場所であると認定することができる。正規化により、より確実に入力画像の位置を特定することができる。
また、前記認定手段の認定結果を補正する補正手段を更に有し、前記補正手段は、前記類似度スコアを正規化した正規化スコアに基づき当該認定結果を補正した補正スコアを算出することができる。補正することで、更に場所の特定率を向上することができる。
更に、前記類似度スコアをβi、前記類似度スコアの標準偏差及び平均をそれぞれσ及びμ、T=σ+μ、iは整数としたとき、前記正規化スコアCは、下記の式により求めることができる。
更にまた、前記補正手段は、ω+1≦i≦nt−(ω+1)とし、ガウシアンシグマ=2としたとき、iからkの距離を示す前記遷移確率をp(i,k)、考慮する隣接登録画像に関する値をω、i、kを整数とすると、前記補正スコアCは、下記により求めることができる。補正することで、更に場所の特定率を向上することができる。
また、前記特徴量抽出手段は、前記入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択手段と、各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出手段とを有するものとすることができる。これにより、連続して撮影された画像を使用し、連続する2枚の画像間で特徴量のマッチングをとり、さらにマッチングを取った特徴量が連続して出現するもののみを抽出し、その平均の局所特徴量を求めることで、撮影位置の変化にロバストな特徴を抽出することができ、それを使用して位置を推定するため、正確に位置を特定することが可能となる。連続画像とは、ビデオ画像から取得される連続的に撮影された複数枚の画像セットである。
更に、前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)及び/又はSURF(Speed Up Robustness Features)の特徴量とすることができる。また、これらSIFTやSURFに限らず、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることも可能である。これにより、これら既存の局所特徴量を用いることで、これらの特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。
本発明に係る位置推定方法は、入力画像から局所特徴量を抽出する特徴量抽出工程と、各登録場所と局所特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング工程と、マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出工程と、前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する認定工程とを有するものである。
また、本発明に係るプログラムは、上述した位置推定処理をコンピュータに実行させるものである。
本発明によれば、現在の位置が既に登録済みの場所であるか、未登録の場所であるかを認識することができる位置推定装置、位置推定方法及びプログラムを提供することができる。
本発明の実施の形態にかかる位置推定装置を示す図である。 本発明の実施の形態にかかる位置推定装置を示すフローチャートである。 正規化前後の類似度スコア及び正規化スコアを示す図である。 補正前後のマッチングスコアを示す図である。 本発明の実施の形態にかかる位置推定装置の特徴量抽出部を示す図である。 本発明の実施の形態にかかる特徴量PIRFを抽出する方法を説明する図である。 不変特徴量抽出方法を示すフローチャートである。 本発明の実施の形態にかかる位置推定装置の推定結果を示すものである。 同じく、本発明の実施の形態にかかる位置推定装置の推定結果を示すものである。 同じく、本発明の実施の形態にかかる位置推定装置の推定結果を示すものである。 同じく、本発明の実施の形態にかかる位置推定装置の推定結果を示すものである。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、移動型のロボット装置などに搭載される、位置を推定する位置推定装置に適用したものである。
図1は、本実施の形態にかかる位置推定装置を示す図である。図1に示すように、位置推定装置は、特徴量抽出部11、マッチング部13、類似度算出部15、登録場所認定部17、登録場所補正部21及びデータベース19を有する。
特徴量抽出部11は、入力画像から局所特徴量を抽出する。局所特徴量としては、SIFT(Scale Invariant Feature Transformation)及び/又はSURF(Speed Up Robustness Features)、又は後述するPIRF(Position-Invariant Robust Features)等を使用することができる。
マッチング部13は、各登録場所と局所特徴量が対応づけられて保存されているデータベース19を参照し、入力画像と登録場所とのマッチングを求める。データベース19は、各登録場所毎にその識別情報と、当該登録場所の特徴量の値を対応付けたモデルテーブル193を登録場所の個数だけ有する。例えば、モデルテーブルは、600(M〜M600)、特徴量の個数は100(p1_1〜p1_100)等とすることができる。
また、データベース19は、各登録場所の局所特徴量を使用して作成された、いずれの登録場所にも属さない非登録場所M及びその特徴量を有する。ここでは、当該テーブルをモデルテーブル191という。非登録場所Mは、各登録場所の局所特徴量の一部又は全部が対応付けられたものであり、例えば各登録場所の局所特徴量のうち、ランダムに抽出した10%の特徴量からなるもの等とすることができる。
マッチング部13は、入力画像が、非登録場所Mと最もマッチングする場合、当該入力画像とその特徴量を新しい登録場所としてデータベース19に登録する。このマッチング部13においては、マッチングスコアは、データベース19に含まれる登録場所の数及び当該登録場所のうち、入力画像とマッチングした登録場所の数に基づき算出される。ここで、マッチングスコアをs、データベースに含まれる登録場所の数をn、当該登録場所のうち、入力画素とマッチングした登録場所の数をnwk=M、0<j<n、j≠i、mは、入力画像Mと現在のモデルMとの間でマッチした局所特徴量の数、k、i、j、tは整数としたとき、下記式(1)によりマッチングスコアsを求めることができる。
類似度算出部15は、マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を判定する。この類似度算出部15は、マッチングスコアと、ガウス分布から得られる遷移確率とに基づき類似度スコアを算出する。ここで、類似度スコアをβ、ガウシアンシグマ=2としたとき、iからkの距離を示す遷移確率をp(i,k)、考慮する隣接登録画像の数をω、i、kを整数とすると、下記式(2)により、類似度スコアβを求めることができる。
ここで、類似度算出部15は、類似度スコアβを正規化する。正規化することにより、よりノイズにロバストなスコアを取得することができる。本実施の形態においては、類似度スコアをβ、類似度スコアの標準偏差及び平均をそれぞれσ及びμ、T=σ+μ、iは整数としたとき、正規化スコアCは、下記の式(3)により求めることができる。
登録場所認定部17は、類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する。具体的には、類似度算出部15は、類似度スコアから類似度スコアの標準偏差σと平均値μとの和Tを引いた値が所定の閾値τ2より大きい場合、入力画像を前記登録場所であると判定する。
登録場所補正部21は、登録場所認定部17の認定結果を補正する。具体的には、登録場所補正部21は、類似度スコアを正規化した正規化スコアを補正する。
ω+1≦i≦nt−(ω+1)とし、ガウシアンシグマ=2としたとき、iからkの距離を示す遷移確率をp(i,k)、考慮する隣接登録画像の数をω、i、kを整数とすると、補正スコアCは、下記式(4)により求まる。補正結果に応じて、入力画像がいずれの登録画像に一致するかを補正して求めることができる。
次に、本実施の形態にかかる位置推定方法について説明する。図2は、本実施の形態にかかる位置推定装置を示すフローチャートである。図2に示すように、特徴量抽出部11は、先ず入力画像を取得する。特徴量抽出部11が特徴量として後述するPIRFを使用する場合には、この入力画像として、連続画像が入力される(ステップS1)。そして、類似度算出部15は、特徴量を抽出する(ステップS2)。特徴量抽出部11は、入力画像から抽出した複数の局所特徴量と入力画像が表わす場所(以下、入力場所という。)とを対応づけたモデルMを生成する(ステップS3)。
次に、マッチング部13は、データベース19を参照してマッチングスコアSを算出する。先ず、現在のモデル(入力画像モデル)Mと、データベース19に登録してある全てのモデルとでマッチングを行う。各モデルにおける各特徴量が所定の閾値以上でマッチングが取れている場合は、マッチングしているものとしてとり扱う。
上述したように、データベース19は、モデルMのモデルテーブル191を有している。これは、各モデルが有する全部又は一部の特徴量をそれぞれ有しているもので、場所が特定できないものである。このモデルMは、例えば他のモデルの3乃至4倍の特徴量を有する。もし入力モデルがこのモデルMと最もマッチングが取れている場合は、入力モデルは新しいモデルとみなされ(ステップS5:Yes)、当該入力モデルMを新規の場所としてデータベース19に追加する(ステップS13,12)。ここで、モデルテーブル191に登録してある特徴量の例えばランダムに5つ抽出して破棄し、新規に登録する入力モデルMの特徴量からランダムに5つ抽出して、モデルMの特徴量の更新を行うことができる。又は、例えば新規の登録場所が例えば300枚追加になった時点でモデルMの特徴量を全部破棄し、データベースにある各モデルからランダムに例えば3つの特徴量を抽出し、これを合わせてモデルMの特徴量とすることも可能である。
次に、入力モデルMが非登録場所モデルMに類似しない場合について説明する。入力モデルMと各モデルの特徴量を比較するが、例えば、東京タワーのような、広範囲の場所から認識できるような特徴量は、その場所固有の特徴量としては、精度の低いものとなる。すなわち、入力モデルのある特徴量のうち、データベース19の600の登録モデルのうちの例えば10%と一致してしまうような特徴量は、識別力が低いものと言える。一方で、入力モデルのある特徴量が、ある登録モデル1つの特徴量と一致する場合、その特徴量は識別能力が高いと見なすことができる。
これらを考慮して、各特徴量についてマッチングを取りつつ、識別力の高い特徴量のマッチングには高いスコアを、識別力の弱い特徴量のマッチングには低いスコアを付与する。このため、本実施の形態においては、下記式(1)を使用する。この式(1)に示すように、入力画素とマッチングした登録場所の数をnwkが多いほどスコアSが小さくなることがわかる。
次に、このスコアSの最大値が所定の閾値τより大きいか否かを判定する(ステップS6)。ここで、スコアSの最大値がMではなかったとしても、所定の閾値τより小さい場合は、入力画像モデルは登録モデルとマッチングしていないと判断し、ステップS13に進み、当該入力画像モデルMを新規の場所として登録する(ステップS12)。所定の閾値τは例えば、3等とすることができる。
ここで、このスコアSは、非常にセンシティブでありノイズに敏感である。そこで、このスコアSから、隣接する登録モデルのデータを使用して別のスコアを求める。このスコアを、本明細書においては、類似度スコアβという。上述したように、類似度スコアβは、式(2)により求まる(ステップS7)。
次に、この類似度スコアを正規化する。いくつの特徴量がマッチすればよいかを予測することは困難である。したがって、例えば隣接する登録モデルとの間でよい類似度スコアが得られていたとしても、最もマッチする登録モデルと、これに類似する登録モデルがある場合、特徴量の多くが共通となるため、類似度スコアが当該類似する登録モデルとの方が高くなる場合があり得る。したがって、類似度スコアは正規化されなければならない。本実施の形態においては、上述のように正規化スコアは、式(3)により求める。
図3は、正規化前後の類似度スコア及び正規化スコアを示す図である。図3(a)に示すように、15個の類似度スコアを正規化に使用する。ここで、lを、考慮する隣接登録モデルの個数とし、l=7として、15個の類似度スコアを使用する例を示している。標準偏差σ及びその平均μの合計をTで示す。lは、値Tを算出する際の制限として利用する。これは、登録モデル全体において、Tは非常に幅のある数であるためである。なお、lの値は、結果に大きな影響を及ぼすものではないが、Tを毎回計算するにあたり、同じスケールに確定するために使用するものである。正規化スコアを図3(b)に示す。なお、正規化はスコアのトレンドをきれいな正規分布の形になるように修正する。
そして、類似度スコアβ−Tが所定の閾値τ2より大きいか判定する(ステップS8)。ここで、β−Tが閾値τ2より小さかった場合は、ステップS11に進み、当該入力画像モデルは、登録場所とマッチングしないと判断し、ステップS12に進み、当該入力画像モデルを新たな登録場所モデルとして登録する。以上により、入力画像を登録画像のいずれかに一致するものと判断してもよいが、本実施の形態においては、更に、ここで求められた登録場所を更に補正する。
図4は、補正前後のマッチングスコアを示す図である。図4(a)は、最大スコアC,j=87を示す。ここで、マッチングスコアは、左右対称であることが好ましいため、これを上述した式(4)で補正し補正スコアCを求める。
これにより、図4(b)に示すように、C,j=87に補正される。なお、このように入力画像は、登録画像モデルM87に一致すると判定した場合、入力画像モデルはそのまま破棄することも可能であるが、登録画像モデルM87を更新することも可能である。例えば、いくつかの特徴量を入れ替えたり、平均してもよい。
次に、特徴量抽出部について詳細に説明する。上述したように、特徴量としては、局所特徴量であれば、どのようなものでも使用可能であるが、本願発明者等が先に出願しているPIRFを使用することで、位置推定確率を向上させることができる。
図5は、本発明の実施の形態にかかる位置推定装置の特徴量抽出部を示す図である。本実施の形態における特徴量抽出部は、連続して撮影された連続画像からなる入力画像から不変特徴量を抽出する。
特徴量抽出部11は、入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出部111と、局所特徴量抽出部111により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング部113と、特徴量マッチング部113により所定数連続する画像間でマッチングが取れた特徴量を連続特徴量として選択する連続特徴量選択部115と、各連続特徴量の平均を不変特徴量として求める不変特徴量算出部117とを有する。
以下の説明においては、不変特徴量算出部117が抽出する不変特徴量のことを、特徴量PIRF(Position-Invariant Robust Features)という。特徴量抽出部11は、撮影位置の変化に影響を受けにくい(局所)特徴量として特徴量PIRFを抽出する。
これは、本願発明者が位置の変化にロバストな特徴量を抽出すべく鋭意実験研究した結果、近くの対象については撮影位置や撮影時間帯の変化による見え方の差(特徴量変化)が大きいが、遠くの対象については変化が小さい(ランドマークの特徴量はあまり変化しない)ことを知見し、その結果本特徴量PIRFを抽出する方法を見出したものである。
本実施の形態にかかる特徴量抽出部11は、簡単には、連続画像間で局所特徴のマッチングを行い、予め定めた枚数間で、連続してマッチングのとれている特徴を選択し、選択された特徴において、それとマッチングのとれている全特徴の平均を特徴量PIRFとして抽出・記述するものである。
この特徴量抽出部11により撮影位置の変化に頑健な局所特徴のみを抽出・記述することができる。また、記述子としては、局所特徴であれば様々なものが適用可能であり、上述のように既存の局所特徴量を用いることで、既存の特徴量が持つ性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる
以下、各ブロックについて詳細に説明する。図6は、本実施の形態にかかる特徴量PIRFを抽出する方法を説明する図である。局所特徴量抽出部111には、連続して撮影された連続画像が入力画像として入力される。ここで、PIRFで要求される連続画像とは、ある画像セットであって、一定のフレームで、例えば1秒毎に2フレームなど、毎秒毎に連続的に撮影されたビデオ画像をいう。すなわち、ビデオからキャプチャされた画像は一般的に連続的であり、PIRFにおける連続画像は、ビデオ画像を使用したものでなければならない。画像の取得率は、カメラの速度に応じて設定される。たとえば、カメラが車に搭載されていた場合、カメラの速度は1分間に約1000m/分であり、ビデオからキャプチャされる連続画像はおよそ50乃至100フレーム/秒となる。
本実施の形態においては、入力画像として全方位画像を用い、連続する画像は、1つのプレイス(place)を撮影したものを使用する。後述するように、このプレイスとは、例えば交差点から交差点までのある領域とする。当該プレイスは、いくつかの連続画像からなる複数のサブプレイスに分割される。すなわち、1つのプレイスは、複数のサブプレイスから構成される。このサブプレイス毎に1又は複数の不変特徴量を抽出する。この不変特徴量の集合をサブプレイスPIRF辞書(PIRF-dictionary)という。1つのプレイスから抽出された全不変特徴量の集合、すなわち、上記サブプレイスPIRF辞書の集合によりPIRF辞書が構成される。1つのプレイスには1つのPIRF辞書が対応する。このサブプレイスPIRF辞書及びPIRF辞書が抽出されたプレイスの識別情報が、PIRF辞書と共に上述のエリアデータベース11に格納される。
先ず、局所特徴量抽出部111は、既存の局所特徴量抽出方法を使用して局所特徴量を抽出する。局所特徴量抽出部111は、例えば、SIFT(Scale Invariant Feature Transformation)、又はSURF(Speed Up Robustness Features)の特徴量を使用することができる。または、これらSIFTやSURFに限らず、他の局所特徴量を使用することができることは勿論である。特に、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることが好ましい。これらの局所特徴量を用いることで、既存の特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。ここで、i番目のエリアにおける全方位画像の数をnとし、その中でj番目の画像から抽出された局所特徴量の集合をU とする。ここでは、局所特徴量はu→で表す。
次に、特徴量マッチング部113が、連続する2枚の画像間全てについて局所特徴量u→を構成する各特徴量のマッチングを行う。すなわち、j=q番目の画像の全局所特徴量について、j=q+1番目の画像の全局所特徴量に対してマッチングを行う。ここでは、それぞれマッチングのとれた特徴へのインデックスをマッチング結果ベクトルm →として求める。
ここで、マッチング方法の一例について、SIFTを例にとって説明する。画像Iから抽出される特徴をvとする。この特徴vが次の画像Ia+1の特徴v'とマッチングするか否かを判定する。先ず、特徴vと画像Ia+1から抽出した全ての特徴との間のドット積(dot product)を求める。そして、最も類似する特徴vfirstと、2番目に類似する特徴vsecondを求めるために、この結果をソートする。もし、
(vfirst・v)/(vsecond・v)>θ
が成立する場合、マッチングのとれた特徴v'=vfirstと判定する。ここで、閾値θはたとえば0.6とすることができる。上記が成立しない場合は、画像Iにおける特徴vにマッチングする特徴は、画像Ia+1には存在しないと判定する。
図6に示すように、各入力画像から6つの局所特徴量が抽出された場合について説明する。これら6つの局所特徴量間でマッチングを取り、マッチングが取れた場合にのみ、マッチングが取れた特徴量へのインデックスを付す。例えば、m →の1番目の局所特徴量は、m →の3番目の局所特徴量とマッチングがとれていることを示し、m →の3番目の特徴量は、m →の6番目の特徴量とマッチングが取れていることを示す。
次に、連続特徴量選択部115が連続特徴量を選択する。先ず、いくつのm →を使用して連続特徴量を求めるかを決定する。このm →の数を、本明細書においては、ウィンドウサイズwともいう。また、このウィンドウサイズwに含まれるm →の集合を、サブプレイスという。ここで、ウィンドウサイズwが大きいほどより頑健な、識別力の高い連続特徴量のみを抽出できるが、大きすぎると特徴数が極端に少なくなってしまう。また、小さすぎると、頑健ではない、識別力のないような特徴量も抽出してしまうので、目的等に応じて最適な大きさとする必要がある。
本実施の形態においては、ウィンドウサイズwを3とする。したがって、連続する4枚の入力画像を使用して連続特徴量を求める。すなわち、図6に示すように、1番目のサブプレイスには、m →、m →、m →が含まれ、入力画像I、I、I、Iが対応する。なお、インデックスの数が0の場合は、次にマッチングする特徴量がないことを示す。よって、図6の場合、1番目のサブプレイスには、3つの連続特徴量が含まれることになる。
連続特徴量選択部115は、ウィンドウサイズwを設定したらこのウィンドウwをひとつずつずらしながら、そのウィンドウサイズに含まれる全方位画像4枚内で共通して出現する特徴を連続特徴量として抽出する。ウィンドウサイズwを設定したら、連続特徴量を抽出するために用いる関数を以下のように定義する。ただし、bは注目するインデックスベクトルの番号とする。
そして、全てのマッチング結果ベクトルm →について、f(mx,y )を計算し、f(mx,y )>0となるときの局所特徴量ux,y →のみを抽出する。入力画像の数がn、ウィンドウサイズがwのとき、サブプレイスの数は、n−w+1となる。
不変特徴量算出部117は、同一ウィンドウグループであるサブプレイス内においてマッチングがとれた局所特徴量の平均を求める。これらの平均値からなるベクトルによりPIFR辞書が構成される。全サブプレイス(n−w+1)個から抽出された(n−w+1)個のサブプレイスPIFR辞書(D ,j≦n−w+1)をPIRF辞書(D)に登録する。このPIFR辞書を構成する、マッチングがとれた局所特徴量の平均各がPIRFである。
次に、特徴量抽出部の不変特徴量PIFRの抽出方法について説明する。図7は、不変特徴量抽出方法を示すフローチャートである。先ず、i=1、j=1に初期化する(ステップS21)。ここで、nは、プレイスAに属する画像の枚数であり、wは、PIRFを抽出するウィンドウサイズである。
次に、エリアAの画像Iを入力する(ステップS22)。そして、iがウィンドウサイズwより大きいか否かを判定する(ステップS23)。iがウィンドウサイズw以下である場合は、iをインクリメントし(ステップS30)、ステップS2に戻る。
一方、ウィンドウサイズwより大きい場合は、画像Iと画像Ii−1の間でマッチングを取る(ステップS24)。そして、w+1枚の連続する入力画像(Ii−w,…,I)から安定している局所特徴量(SIFT)を抽出する(ステップS25)。ここで、本実施の形態においては、ウィンドウサイズwを3に設定している。ウィンドウサイズwは、何枚の連続画像からPIRFを抽出するかを示す。たとえば、ウィンドウサイズwを3に設定した場合、PIRFは4つの連続画像に連続して現れる特徴があるときにのみ得られる。従って、あるプレイスAの画像イメージが4枚より少ない場合、3つの2画像間で一致する特徴を見つけるのに十分ではない。よって、画像が少なくとも4枚であるとき、プレイスAからのPIRFの抽出をスタートすることができる。例えば、現在の画像がIであるとき、PIRFは、4枚の連続画像I、I、I、Iから求めることができる。
次に、抽出した安定した局所特徴量の平均をPIRFとして算出する(ステップS26)。次いで、エリアAに含まれるPIRFを収集し、PIRF辞書Dに登録する(ステップS27)。そして、i=nであるか否かが判断され(ステップS28)、i=nであれば、i=1、j=j+1とし、ステップS2からの処理を繰り返す(ステップS29)。i=nではない場合は、ステップS10に進み、iをインクリメントして、ステップS2に戻る。
次に、本実施の形態の効果について説明する。図8乃至図11は、本実施の形態にかかる位置推定装置の推定結果を示すものである。図8乃至図11は、それぞれ、New College、City Center、Suzukakedai、混合モデルの位置推定結果を示す。図8に示すように、スケールを0.25としたものでさえも、他の位置推定方法であるFAB−MAPよりよい精度を示していることがわかる。その他の結果についても、FAB−MAPより極めて精度よく場所を特定できていることがわかる。
以上説明したように、本実施の形態においては、入力画像と登録画像のマッチングを取った後、登録場所の近傍の登録場所を含めて類似度を算出し、それを正規化して、入力画像がいずれの登録場所に一致するかを判定するため、極めて正確に、入力画像が既にデータベースに登録された登録場所であるか、初めて認識した画像であるかの切り分けを行うことができる。また、登録画像を一致しない入力画像は、そのままデータデータベースに登録することで、自律型の移ロボット装置等に搭載すれば、自己の位置を探索し、位置データベースを自身で拡大させることも可能である。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
11 特徴量抽出部
13 マッチング部
15 類似度算出部
17 登録場所認定部
19 データベース
21 登録場所補正部
193 モデルテーブル
191 モデルテーブル
111 局所特徴量抽出部
113 特徴量マッチング部
115 連続特徴量選択部
117 不変特徴量算出部

Claims (17)

  1. 入力画像から局所特徴量を抽出する特徴量抽出手段と、
    各登録場所と局所特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング手段と、
    マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出手段と、
    前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する認定手段とを有する位置推定装置。
  2. 前記データベースは、前記各登録場所の局所特徴量を使用して作成された、いずれの登録場所にも属さない非登録場所及びその特徴量を有する、請求項1記載の位置推定装置。
  3. 前記非登録場所は、各登録場所の局所特徴量の一部又は全部が対応付けられている、請求項2記載の位置推定装置。
  4. 前記入力画像が、前記非登録場所と最もマッチングする場合、当該入力画像とその特徴量を新しい登録場所としてデータベースに登録する、請求項1乃至3のいずれか1項記載の位置推定装置。
  5. マッチングスコアは、前記データベースに含まれる登録場所の数及び当該登録場所のうち、入力画素とマッチングした登録場所の数に基づき算出される、請求項1乃至4のいずれか1項記載の位置推定装置。
  6. マッチングスコアをs、前記データベースに含まれる登録場所の数をn、当該登録場所のうち、入力画素とマッチングした登録場所の数をnwk=M、0<j<n、j≠i、mは、入力画像Mと現在のモデルMとの間でマッチした局所特徴量の数、k、i、j、tは整数としたとき、下記により前記マッチングスコアsを求めることができる、請求項5記載の位置推定装置。
  7. 前記類似度算出手段は、マッチングスコアと、ガウス分布から得られる遷移確率とに基づき類似度スコアを算出定する、請求項1乃至6のいずれか1項記載の位置推定装置。
  8. 前記類似度スコアをβ、ガウシアンシグマ=2としたとき、iからkの距離を示す前記遷移確率をp(i,k)、考慮する隣接登録画像に関する値をω、i、kを整数とすると、下記により、前記類似度スコアβを求めることができる、請求項7記載の位置推定装置。
  9. 前記類似度算出手段は、前記類似度スコアを正規化した正規化スコアを算出する、請求項7又は8記載の位置推定装置。
  10. 前記認定手段は、前記類似度スコアから前記類似度スコアの標準偏差と平均値の和を引いた値が所定の閾値以上である場合、前記入力画像を前記登録場所であると認定する、請求項7乃至9項記載の位置推定装置。
  11. 前記認定手段の認定結果を補正する補正手段を更に有し、前記補正手段は、前記類似度スコアを正規化した正規化スコアに基づき当該認定結果を補正した補正スコアを算出する、請求項7乃至10のいずれか1項記載の位置推定装置。
  12. 前記類似度スコアをβ、前記類似度スコアの標準偏差及び平均をそれぞれσ及びμ、T=σ+μ、iは整数としたとき、前記正規化スコアCは、下記の式により求めることができる、請求項11項記載の位置推定装置。
  13. 前記補正手段は、ω+1≦i≦nt−(ω+1)とし、ガウシアンシグマ=2としたとき、iからkの距離を示す前記遷移確率をp(i,k)、考慮する隣接登録画像に関する値をω、i、kを整数とすると、前記補正スコアCは、下記により求まる、請求項11又は12記載の位置推定装置。
  14. 前記特徴量抽出手段は、
    前記入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量を連続特徴量として選択する連続特徴量選択手段と、
    各前記連続特徴量の平均を不変特徴量として求める不変特徴量算出手段とを有する、請求項1乃至13のいずれか1項記載の位置推定装置。
  15. 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)及び/又はSURF(Speed Up Robustness Features)の特徴量である、請求項14項記載の位置推定装置。
  16. 入力画像から局所特徴量を抽出する特徴量抽出工程と、
    各登録場所と局所特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング工程と、
    マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出工程と、
    前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する認定工程とを有する位置推定方法。
  17. 所定の動作をコンピュータに実行させるためのプログラムであって、
    入力画像から局所特徴量を抽出する特徴量抽出工程と、
    各登録場所と局所特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング工程と、
    マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を判定する類似度算出工程と、
    前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する認定工程とを有するプログラム。
JP2010081027A 2010-03-31 2010-03-31 位置推定装置、位置推定方法及びプログラム Active JP5557189B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010081027A JP5557189B2 (ja) 2010-03-31 2010-03-31 位置推定装置、位置推定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010081027A JP5557189B2 (ja) 2010-03-31 2010-03-31 位置推定装置、位置推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011215716A true JP2011215716A (ja) 2011-10-27
JP5557189B2 JP5557189B2 (ja) 2014-07-23

Family

ID=44945402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010081027A Active JP5557189B2 (ja) 2010-03-31 2010-03-31 位置推定装置、位置推定方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5557189B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014507022A (ja) * 2010-12-08 2014-03-20 マイクロソフト コーポレーション 位置ベースの画像編成
WO2014073204A1 (ja) 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
US10366305B2 (en) 2016-02-24 2019-07-30 Soinn Inc. Feature value extraction method and feature value extraction apparatus
CN112644719A (zh) * 2019-10-09 2021-04-13 沃科波特有限公司 用于控制致动器系统的方法和使用所述方法的飞行器
CN112686880A (zh) * 2021-01-06 2021-04-20 哈尔滨市科佳通用机电股份有限公司 一种铁路机车部件异常检测的方法
JP2023525283A (ja) * 2020-09-25 2023-06-15 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像検出方法、装置、コンピュータプログラム及びコンピュータ機器
JP7468396B2 (ja) 2021-02-17 2024-04-16 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107728616B (zh) * 2017-09-27 2019-07-02 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及移动机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183732A (ja) * 2000-12-13 2002-06-28 Toshiba Corp パターン認識方法及びパターン認識を行わせるプログラムを記憶したコンピュータ読み取り可能な記憶媒体
JP2008032478A (ja) * 2006-07-27 2008-02-14 Toyota Motor Corp 自己位置推定装置
JP2010033447A (ja) * 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
JP2010238008A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 映像特徴抽出装置、及びプログラム
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183732A (ja) * 2000-12-13 2002-06-28 Toshiba Corp パターン認識方法及びパターン認識を行わせるプログラムを記憶したコンピュータ読み取り可能な記憶媒体
JP2008032478A (ja) * 2006-07-27 2008-02-14 Toyota Motor Corp 自己位置推定装置
JP2010033447A (ja) * 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
JP2010238008A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 映像特徴抽出装置、及びプログラム
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014507022A (ja) * 2010-12-08 2014-03-20 マイクロソフト コーポレーション 位置ベースの画像編成
US9251173B2 (en) 2010-12-08 2016-02-02 Microsoft Technology Licensing, Llc Place-based image organization
US9412035B2 (en) 2010-12-08 2016-08-09 Microsoft Technology Licensing, Llc Place-based image organization
WO2014073204A1 (ja) 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
US9396396B2 (en) 2012-11-06 2016-07-19 Soinn Holdings Llc Feature value extraction apparatus and place estimation apparatus
US10366305B2 (en) 2016-02-24 2019-07-30 Soinn Inc. Feature value extraction method and feature value extraction apparatus
CN112644719A (zh) * 2019-10-09 2021-04-13 沃科波特有限公司 用于控制致动器系统的方法和使用所述方法的飞行器
CN112644719B (zh) * 2019-10-09 2023-10-31 沃科波特有限公司 用于控制致动器系统的方法和使用所述方法的飞行器
JP2023525283A (ja) * 2020-09-25 2023-06-15 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像検出方法、装置、コンピュータプログラム及びコンピュータ機器
JP7490082B2 (ja) 2020-09-25 2024-05-24 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像検出方法、装置、コンピュータプログラム及びコンピュータ機器
CN112686880A (zh) * 2021-01-06 2021-04-20 哈尔滨市科佳通用机电股份有限公司 一种铁路机车部件异常检测的方法
CN112686880B (zh) * 2021-01-06 2021-09-14 哈尔滨市科佳通用机电股份有限公司 一种铁路机车部件异常检测的方法
JP7468396B2 (ja) 2021-02-17 2024-04-16 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム

Also Published As

Publication number Publication date
JP5557189B2 (ja) 2014-07-23

Similar Documents

Publication Publication Date Title
JP5557189B2 (ja) 位置推定装置、位置推定方法及びプログラム
US10417503B2 (en) Image processing apparatus and image processing method
CN110363047B (zh) 人脸识别的方法、装置、电子设备和存储介质
WO2021012484A1 (zh) 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
US9036863B2 (en) Resuming tracking after losing target
US11380010B2 (en) Image processing device, image processing method, and image processing program
CN108960211A (zh) 一种多目标人体姿态检测方法以及系统
US10366305B2 (en) Feature value extraction method and feature value extraction apparatus
US20200364444A1 (en) Information processing apparatus and method of authentication
EP2922022B1 (en) Feature value extraction device and location inference device
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
WO2019003973A1 (ja) 顔認証装置、顔認証方法およびプログラム記録媒体
JPWO2011145239A1 (ja) 位置推定装置、位置推定方法及びプログラム
KR101139930B1 (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
US20150356346A1 (en) Feature point position detecting appararus, feature point position detecting method and feature point position detecting program
CN111860196A (zh) 手部作业动作评分装置、方法及计算机可读存储介质
CN114399731B (zh) 一种单粗点监督下的目标定位方法
Kumar et al. UGLLI face alignment: Estimating uncertainty with gaussian log-likelihood loss
EP3699865A1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
EP3076370B1 (en) Method and system for selecting optimum values for parameter set for disparity calculation
US11443552B2 (en) Image pattern similarity calculation device and recognition device
JP6789676B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN114639116B (zh) 行人重识别方法及装置、存储介质、终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140519

R151 Written notification of patent or utility model registration

Ref document number: 5557189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151