JP6265499B2 - 特徴量抽出装置及び場所推定装置 - Google Patents

特徴量抽出装置及び場所推定装置 Download PDF

Info

Publication number
JP6265499B2
JP6265499B2 JP2014545574A JP2014545574A JP6265499B2 JP 6265499 B2 JP6265499 B2 JP 6265499B2 JP 2014545574 A JP2014545574 A JP 2014545574A JP 2014545574 A JP2014545574 A JP 2014545574A JP 6265499 B2 JP6265499 B2 JP 6265499B2
Authority
JP
Japan
Prior art keywords
feature amount
feature
invariant
matching
feature quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014545574A
Other languages
English (en)
Other versions
JPWO2014073204A1 (ja
Inventor
長谷川 修
修 長谷川
ゴセー カ
ゴセー カ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOINN HOLDINGS LLC
Original Assignee
SOINN HOLDINGS LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOINN HOLDINGS LLC filed Critical SOINN HOLDINGS LLC
Publication of JPWO2014073204A1 publication Critical patent/JPWO2014073204A1/ja
Application granted granted Critical
Publication of JP6265499B2 publication Critical patent/JP6265499B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/11Technique with transformation invariance effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力画像から局所特徴量を抽出する特徴量抽出装置、方法及びプログラム、並びにこれを使用した場所推定装置、方法及びプログラムに関する。
環境中の自己位置(場所)の推定・特定は、人間や機械にとっては必須の能力である。今自分はどこにいるかということを知ることは、ロボットやコンピュータビジョンにとっては、常に重要である。特に、可動式のロボットにとって、今自分がどこにいるかを把握することは、ナビゲーションシステムには基本的要求となっている。
このような場所同定には、周辺環境の特徴量をいかに正確に抽出するかが大きなポイントとなる。従来、環境から局所特徴量を抽出する手法としては、アフィン不変の特徴量(MSER, Harris−Affine, Hessian−Affine, Salient Regionなど)や、大きさ変化に不変な特徴量(SIFT:Scale Invariant Feature Transformation, SURF:Speed Up Robustness Featuresなど)がある。また、連続画像において、上述の手法で各画像から抽出した局所特徴量の中から、撮影位置の変化にロバストなものだけをさらに抽出した特徴量としてPIRF(Position−Invariant Robust Features)がある(特許文献1乃至3、非特許文献1)。
特開2011−053823号公報 特開2011−215716号公報 特願2010−115307号
N.Tongprasit,A.Kawewong,O.Hasegawa,"Pirf−nav 2:speededup online and incrcmental appearnnce−based slam in highly dynamic environment" ,IEEE Workshop on Applications of Computer Vision(WACV),2011.
しかしながら、PIRFには、以下の問題点がある。PIRFでは、連続する数フレームの画像に出現する局所特徴量(以下、単に特徴量ないし特徴点ともいう)を不変特徴量として抽出していたが、この際、空間内で位置が変化しない局所特徴量であっても、位置が変化している局所特徴量であっても、時間方向に連続して出現さえしていれば不変特徴量とみなされ抽出対象となる。すなわち、位置不変な局所特徴量と、位置が変化する動的な局所特徴量と、が分離されず、不変特徴量として等価に扱われていた。
そのため、PIRFにより抽出した不変特徴量を用いた場所推定においては、例えば移動中の人物など、本来であれば場所推定の用にふさわしくない動的な物体の局所特徴量も用いられることとなり、推定精度や演算速度に悪影響を与えていた。
本発明は、このような問題点を解決するためになされたものであり、位置不変な局所特徴量を抽出できる特徴量抽出装置、方法及びプログラム、並びにそれを搭載した場所推定装置、方法及びプログラムを提供することを目的とする。
本発明に係る場所推定装置は、入力画像から位置不変特徴量を抽出する特徴量抽出手段と、各登録場所と位置不変特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング手段と、マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出手段と、前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する場所認定手段とを有し、前記特徴量抽出手段は、連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択手段と、前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出手段とを有し、前記位置不変特徴量抽出手段は、前記対応特徴量のうち、位置の変化が所定のしきい値以下である対応特徴量を、前記位置不変特徴量として抽出するものである。
本発明に係る場所推定方法は、入力画像から不変特徴量を抽出する特徴量抽出工程と、各登録場所と不変特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング工程と、マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出工程と、前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する場所認定工程とを有し、前記特徴量抽出工程は、連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出工程と、前記局所特徴量抽出工程にて抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング工程と、前記特徴量マッチング工程にて連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択工程と、前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出工程とを有し、前記位置不変特徴量抽出工程は、前記対応特徴量のうち、位置の変化が所定のしきい値以下である対応特徴量を、前記位置不変特徴量として抽出するものである。
本発明に係る特徴量抽出装置は、連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択手段と、前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出手段とを有し、前記位置不変特徴量抽出手段は、前記対応特徴量のうち、位置の変化が所定のしきい値以下である対応特徴量を、前記位置不変特徴量として抽出するものである。
本発明に係る特徴量抽出方法は、連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出工程と、前記局所特徴量抽出工程にて抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング工程と、前記特徴量マッチング工程にて連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択工程と、前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出工程とを有し、前記位置不変特徴量抽出工程は、前記対応特徴量のうち、位置の変化が所定のしきい値以下である対応特徴量を、前記位置不変特徴量として抽出するものである。
本発明に係るプログラムは、上記場所推定方法ないし特徴量抽出方法を、コンピュータに実行させるためのプログラムである。
本発明によれば、位置不変な局所特徴量を、堅牢な特徴量として抽出可能な特徴量抽出装置、方法及びプログラム、並びにそれを使用した場所推定装置、方法及びプログラムを提供することができる。
本発明の実施の形態にかかる場所推定装置を示すブロック図である。 本発明の実施の形態にかかる場所推定方法を示すフローチャートである。 位置不変特徴量の抽出処理を示すフローチャートである。 位置不変特徴量の抽出処理を示すリストである。 一方向アプローチのICGMを示す図である。 両方向アプローチのICGMを示す図である。 一方向アプローチ、両方向アプローチの比較を示す図である。 一方向アプローチ、両方向アプローチの比較を示す図である。 ICGMによる特徴量の抽出実験結果を示す図である。 渋谷駅における場所認識実験を示す図である。 一方向アプローチ、両方向アプローチの比較を示す図である。 Minamidai屋外実験を示す図である。 Minamidai屋外実験結果を示す図である。 Minamidai屋外実験結果を示す図である。 対応特徴量の抽出処理を示す図である。 対応特徴量の抽出処理を示す図である。 位置不変特徴量の抽出処理を示す図である。 位置不変特徴量の抽出処理を示すリストである。 位置不変特徴量の抽出処理を示すリストである。
本実施の形態では、環境中において長期間にわたって位置が変化しない特徴量、すなわち位置不変特徴量を抽出し、これを場所推定に利用する手法を開示する。環境中には、静的な局所特徴量、すなわち長期間にわたっても位置が変化しない特徴量が含まれる。例えば、鉄道の駅には、多くの歩行者が存在するが、これらの歩行者の特徴量は、一般に短時間で位置が変化するので、静的な特徴量とは見なされない。一方、壁や看板のような要素に関する特徴量は、長期間にわたって位置が変化しない。場所推定には、このような位置不変特徴量を用いることが好適である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、移動型のロボット装置などに搭載される、場所を推定する場所推定装置に適用したものである。
<本発明の実施の形態1>
図1は、本発明の実施の形態にかかる場所推定装置を示すブロック図である。場所推定装置10は、連続して撮影された連続画像からなる入力画像から位置不変特徴量を抽出する特徴量抽出部11、共通辞書12、マッチング部13、類似度算出部14及び場所認定部15を有する。また、特徴量抽出部11は、局所特徴量抽出部21、特徴量マッチング部22、対応特徴量選択部23、及び位置不変特徴量抽出部24を有する。
局所特徴量抽出部21は、入力画像それぞれから、局所特徴量を抽出する。特徴量マッチング部22は、局所特徴量抽出部21により抽出された局所特徴量について、連続する入力画像間でマッチングをとる。対応特徴量選択部23は、特徴量マッチング部により連続する画像間でマッチングが取れた特徴量を対応特徴量として抽出する。ここで、本実施の形態においては、特徴量マッチング部22、対応特徴量選択部23は、連続する2枚の画像を使用して、対応特徴量を求めるものとする。対応特徴量の抽出手法には、例えばSIFT(Scale Invariant Feature Transformation)、SURF(Speed Up Robustness Features)がある。
位置不変特徴量抽出部24は、本発明の特徴的な処理を実施する処理部であり、対応特徴量選択部23が抽出した対応特徴量のうち、位置が変化していない特徴量(位置不変特徴量)のみを抽出する。以降、この位置不変特徴量の抽出手法をICGM(Incremental Center of Gravity Matching)と称する。
マッチング部13は、場所と、その場所の位置不変特徴量とが対応づけられて登録されているデータベースを参照し、入力画像と、登録済みの場所とのマッチングを行い、マッチングスコアを算出する。類似度算出部14は、マッチングスコアが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する。場所認定部15は、類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する。
次に、本実施の形態にかかる場所推定装置10を用いた場所推定方法について説明する。図2は、本実施の形態にかかる場所推定方法を示すフローチャートである。
(位置不変特徴量の抽出)
先ず、特徴量抽出部11が、入力画像Iから位置不変特徴量を抽出する処理について説明する。
局所特徴量抽出部21には、連続して撮影された2枚の画像I及びIt−1が入力画像として入力される。ここで、ICGMで要求される連続画像とは、例えば所定のフレームレートで(1秒毎に2フレームなど)、連続的に撮影された画像をいう。一般に、ビデオからキャプチャされた画像は連続的であるから、ICGMにおける入力画像は、ビデオ画像を使用することが好適である。
先ず、局所特徴量抽出部21は、既存の局所特徴量抽出方法を使用して局所特徴量を抽出する(ステップS1)。局所特徴量抽出部21は、例えば、SIFT(Scale Invariant Feature Transformation)、又はSURF(Speed Up Robustness Features)等の特徴量抽出手法を使用することができる。または、SIFTやSURFに限らず、他の局所特徴量を使用することができることは勿論である。特に、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることが好ましい。これらの局所特徴量を用いることで、既存の特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。
本実施の形態においては、SURFを使用するものとする。SIFTは、局所特徴量として2000乃至3000以上の特徴量を抽出する。これに対し、SURFは、200乃至300の局所特徴量を抽出するため、演算量が少なくてすむ。
特徴量マッチング部22は、現在時刻tで取得した画像Iと、その直前の時刻t−1で取得した画像It−1とを使用し、これらの連続する画像間の局所特徴量のマッチングを行う。ここで、マッチングは、例えばSIFT(Scale Invariant Feature Transformation)、又はSURF(Speed Up Robustness Features)において用いられている種々の公知の手法で実施できる。例えば、それぞれの画像から抽出された特徴量を使用してマッチングスコアを計算し、そのマッチングスコアが所定の閾値以上であれば、両局所特徴量は、マッチしたものとみなす。
対応特徴量選択部23は、特徴量マッチング部22により連続する画像間でマッチしたものと判定された特徴量を対応特徴量として選択する。そして、現在時刻tの画像Iにおける局所特徴量のセットp=(p,p,・・・p)、時刻t−1の画像It−1における局所特徴量のセットp’=(p’,p’,・・・p’)を生成する。
次に、位置不変特徴量抽出部24が、対応特徴量のセットp,p’を使用して、現在時刻tの画像Iにおける位置不変特徴量を抽出する(ステップS2)。この位置不変特徴量の抽出処理のアルゴリズムを、図3のフローチャート及び図4のリストに示す。以下、図3のフローチャートを用いて当該アルゴリズムについて説明する。
ステップ1:2つの連続画像から、対応する局所特徴量の組を2つ選択する。すなわち、画像Iの対応特徴量のセットpから、2つの局所特徴量p,pを選択する。また、画像It−1の対応特徴量のセットp’から、局所特徴量p’,p’を選択する。ここで、pとp’、及びpとp’は、それぞれ特徴量マッチング部22によって互いにマッチすると判定されたペアである。
ステップ2:それぞれの画像において、選択された2点に基づくベクトルを計算する。すなわち、画像Iにおいては、ベクトルCGV0=p−p、画像It−1においては、ベクトルCGV1=p’−p’を求める。
ステップ3:ベクトルCGV0とCGV1とを比較し、類似していないならばステップ1に戻る。一方、類似しているならば、局所特徴量p,pを位置不変特徴量と認定する。すなわち、両ベクトルの差分が所定のしきい値以下、||CGV0−CGV1||<=Thrであるならば、両ベクトルは類似しているから、局所特徴量pi,pj、及びpi’,pj’は位置不変であることになる。もし、||CGV0−CGV1||>Thrであるならば、ステップ1に戻る。ここで、両ベクトルが類似しているということは、局所特徴量p,p、及びp’,p’の幾何学的な位置関係が両画像間においてほとんど変化していないこと、すなわち特徴点p,pの位置が不変とみなしうることを示している。
ステップ4:画像Iから抽出した位置不変特徴量p,pを、pから削除するとともに、変数Pに格納する。同様に、画像It−1の特徴量p’,p’を、p’から削除するとともに、変数P’に格納する。また、それぞれの画像において、選択した2点の重心CG0,CG1を式(1)により計算する。
CG0=(p+p)/2,CG1=(p’+p’)/2 ・・・(1)
ステップ5:以下、画像I,画像It−1の残る対応特徴量についても、順次、位置不変かどうかのテストを行っていく。まず、画像I,画像It−1から、対応する局所特徴量の組p,p’を選択する。この選択は、例えばインデックス順に行うことができる。つぎに、それぞれの画像において、ステップ4で計算した重心CG0,CG1と、選択した局所特徴量p,p’と、に基づくベクトルを計算する。すなわち、画像Iにおいては、ベクトルCGV0=CG0−pを求め、画像It−1においては、ベクトルCGV1=CG1−p’を求める。
ステップ6:これらのベクトルを比較し、類似しているならば、選択した局所特徴量を位置不変特徴量と認定する。すなわち、両ベクトルの差分がしきい値Thr以下、||CGV0−CGV1||≦Thrであるならば、両ベクトルは類似しているから、局所特徴量p,p’は位置不変であることになる。ここで、両ベクトルが類似しているということは、重心CG0と局所特徴量p、重心CG1と局所特徴量p’の幾何学的な位置関係が両画像間においてほとんど変化していないこと、すなわち特徴点pの位置が不変とみなしうることを示している。
ステップ7:画像Iから抽出した位置不変特徴量pを、pから削除するとともに、変数Pに格納する。同様に、画像It−1の特徴量p’を、p’から削除するとともに、変数P’に格納する。また、それぞれの画像において、先の重心CG0とpとの重心、及び先の重心CG1とp’との重心を、それぞれ計算し、これらを新たな重心CG0,CG1とする。
ステップ8:一方、||CGV0−CGV1||>Thrであるならば、p,p’は位置不変でないことになる。よって、p,p’pは抽出対象から外されるべきである。したがって、pをpから削除するとともに、p’をp’から削除する。
ステップ9:p,p’に含まれるすべての局所特徴量についてテストが終了したら、すなわちp,p’が空襲号となったならば、処理を終了する。このとき、Pに含まれる局所特徴量が、位置不変特徴量である。以上で、位置不変特徴量の抽出処理は終了である。
(位置不変特徴量を用いた場所推定)
位置不変特徴量が抽出されたならば、つづいて、マッチング部13が、共通辞書12を参照してマッチングスコアsを求める(ステップS3)。共通辞書12は、環境内における連続する場所(プレイス)L、Lm+1、Lm+2・・それぞれについて、各プレイスの特徴量のセットであるモデルm、m+1、m+2・・を保持している。画像Iと、場所Lのモデルmとのマッチングスコアsは、式(2)により求められる。
=n×num_appear ・・・(2)
ここで、sは、プレイスLの特徴量セットであるモデルmと、画像Iの位置不変特徴量のセットPとのマッチングスコアを示す。num_appearは、共通辞書12で一致した位置不変特徴量の数を示す。例えば、3つの位置不変特徴量が一致したならば、num_appear=3である。nは、モデルmとマッチングした位置不変特徴量の数を示す。例えば、n=2であれば、s=2×3=6となる。
次に、類似度算出部14は、隣接するプレイスを考慮して、第2状態スコア(第1の推定値)bを求める(ステップS4)。プレイスLで表れた特徴は、同様に隣接プレイスLm−2、Lm−1、Lm+1、Lm+2で表れる可能性が高い。すなわち、これら隣接プレイスのマッチングスコアは、Lのマッチングスコアsと略同じか若干低い程度と予測される。すなわち、例えばsが高いスコアであっても、sm−1やsm+1が0であるような場合は、マッチングスコアsの値がおかしい、すなわち、正しく場所推定できていないことになる。ここで、本実施の形態においては、ガウシアン関数p(m,i)で重みづけをした第2状態スコアbを下記の式(3)により求める。
Figure 0006265499
ここで、wは、考慮する隣接プレイスの個数を示す。例えば、フレームレートが一定である場合、スピードが早ければ、このwの値を例えば1とし、スピードが遅ければwの値を2とするなどすることができる。
ここで、この第2状態スコアbに基づき、画像Iがモデルmと一致する、すなわち、既知の場所(known place)であると判定することも可能であるが、本実施の形態においては、この第2状態スコアbを正規化することで、認定率を更に向上させる。
正規化スコア(第2推定値)b_normは、式(4)より求めることができる(ステップS5)。
Figure 0006265499
ここで、nは場所推定装置の移動速度に応じた値であり、ICGMで得られる位置不変特徴量の最大抽出数とすることができる。類似度算出部14は、この正規化スコアb_normを求め、場所認定部15は、この値が所定の閾値より大きければ、画像Iをモデルmと一致する、すなわち、既知の場所(プレイス)として認定する(ステップS6、7)。ここで、画像Iが、モデルmと一致した場合、オリジナルのモデルmに含まれていなかった位置不変特徴量をモデルmに追加することで、モデルmの特徴量をアップデートすることができる。このとき、各プレイスの特徴量が特許文献3のようにインデックスで保存されていれば、インデックスを増やすのみでよく、メモリ容量の増加を抑制することができる。また、モデルmの特徴量は、例えばファーストインファーストアウト方式を取れば、メモリ容量を増加させることがない。
一方、正規化スコアb_normが所定の閾値に満たない場合、場所認定部15は、画像Iを新しい場所(プレイス)を示すものとして認定し(ステップS8)、例えば画像Iが撮影された場所と、画像Iから抽出された位置不変特徴量を共通辞書12に登録する。
本実施の形態においては、特徴量抽出部11が、堅牢な特徴量として、時間方向に連続して、かつ略同じ位置に存在する特徴量を抽出する。これにより、時間経過とともに移動する特徴量を分離できるため、場所認識に有効な特徴量を効果的に抽出することができる。
また、本実施の形態においては、特徴量抽出部11が位置不変特徴量を抽出する際、堅牢な特徴量の重心を逐次更新し、この重心を用いて他の特徴量の堅牢性の判定を行う。重心は、特徴量の位置関係の情報を内包しているため、これを用いることにより位置情報を含めた堅牢性をテストすることができる。また、重心は計算が簡便であり、高速な処理が可能である。特に、本実施の形態では、特徴点の堅牢性テストの際に用いられる重心は、その時点までに堅牢と判定された全ての特徴点の重心となっている。すなわち、膨大な他の特徴量の位置情報をすべて参照する必要がなく、ただ1つの重心との関係を評価すれば、特徴点の位置の安定性を評価できるため、データ量及び演算量を圧縮することができる。
<本発明の実施の形態2>
(位置不変特徴量の抽出−一方向アプローチと両方向アプローチ)
実施の形態1では、位置不変特徴量を抽出する手法(ICGM)として、時刻tにおける画像Iと、時刻t−1における画像It−1とを使用する方法について説明した。これを一方向アプローチと称する。実施の形態2では、より効果的に位置不変特徴量を抽出できる手法について説明する。以下、これを両方向アプローチと称する。
図5は、画像Iと画像It−1とから位置不変特徴量を抽出する、一方向アプローチのICGMを示している。一方向アプローチとはつまり、現在の画像と、過去の画像との比較により、位置不変特徴量を抽出するアプローチである。こうして抽出された位置不変特徴量は、画像Iのみから抽出される特徴量(SIFT,SURFなどにより)よりは優に堅牢である。しかし、一方向アプローチでは、位置不変特徴量の大幅な損失が発生することがある。損失が発生し得る具体的なケースについては後述する。
図6に、両方向アプローチのICGMの概念を示す。両方向アプローチでは、まず、現在の画像Iと、過去の画像It−1とを比較して位置不変特徴量Aを抽出し、ついで、現在の画像Iと、将来の画像It+1とを比較して位置不変特徴量Bを抽出する。しかる後、両者の論理和C=A∪Bを、画像Iの位置不変特徴量とする。
発明者は、既知の一眼カメラ等を使って画像を取得するような場合において、両方向アプローチのほうがより効果的に位置不変特徴量を抽出できることを発見した。具体的には、カメラの速度、動き等が、抽出できる位置不変特徴量に影響を与え得る。発明者は、既知の一眼カメラを使用した際に起こり得る2つの状況に関して考察を行った。カメラが一定速度で回転する場合と、一定の速度で無限遠物体に近づくか遠ざかる場合である。そして、これらの2つの典型的な状況のいずれにおいても、両方向アプローチが、一方向アプローチよりも優れていることがわかった。
まず、一定速度でカメラが回転する場合について考える。カメラの角速度をω、カメラの視野角をγで表す。このとき、カメラの視野が完全に別のシーンに切り替わるまでの時間をTDisappear=γ/ωとする。また、一方向化アプローチによって特徴量抽出を行うのに必要な時間(t−1からtまで)をTDurationとする。なお、位置不変特徴量は、視野内に均一に分布しているものとする。
このとき、一方向アプローチによる、位置不変特徴量の数Pαの抽出率は式(5)のように与えられる。
Figure 0006265499
一方、両方向アプローチによる、位置不変な特徴量の数Pβの抽出率は式(6)のように与えられる:
Figure 0006265499
これらの2つのアプローチを比較するため、パラメータλαを式(7)のように定義する。
λα=TDuration/TDisappear ・・・(7)
これより、Pα=1−λαとなる。これを図7に表す。図7によれば、両方向アプローチは、一方向アプローチよりも位置不変な特徴量を多く抽出できることがわかる。具体的には、λα≦1/2であれば、両方向アプローチでは位置不変特徴量を漏れなく抽出できる。
また、カメラが一定の速度で無限遠物体に近づくか遠ざかる場合について考える。ここでも、TDurationを上述したものと同じ意味で用いる。垂直及び水平方向の視野角を、η及びθとする。なお、位置不変特徴量は視野内に均一に分布しているものとする。
ここで、カメラが無限遠の物体から速度νで遠ざかるとき、時刻tにおいて、カメラと物体との距離がdであるとすると、カメラの視界sは式(8)のように与えられる。
s=4・tan(η)tan(θ)・d ・・・(8)
特徴量の抽出を実行するよりも時間TDurationだけ昔、すなわち時刻t−TDurationにおいて、カメラと物体との距離d’は、d’=d−TDuration・νで表される。よって、時刻t−TDurationにおける視界s’は式(9)のようになる。
s’=4・tan(η)tan(θ)・(d−TDuration・ν) ・・・(9)
よって、このとき
Figure 0006265499
同様に、λβを定義する。
λβ=TDuration・ν/d ・・・(11)
カメラが対象から遠ざかる場合、一方向アプローチでは、位置不変特徴量の抽出処理を、現在及び過去の情報を使用して行うため、現在の情報の一部が捨象される。すなわち、Pα=(1−λβである。一方、両方向アプローチでは、現在、過去及び未来の情報を使用して処理を行う。将来におけるカメラの視野は現在よりも大きいので、現在の視界に含まれる情報の損失はゼロになる。すなわち、常にPβ=1である。
カメラが無限遠の対象に接近する場合は、現在、及び現在の視界よりも大きな過去の視界の情報を用いて処理を行うため、情報の損失は常にゼロである。すなわち、Pα=1、Pβ=1である。図8に、一方向アプローチ及び両方向アプローチの比較を示す。
このように、両方向アプローチは、一方向アプローチと比較して、より効果的に、動的な環境から位置不変特徴量を抽出することができる。これらの2つのアプローチの主な違いは以下のとおりである。一方向アプローチは、現在より以前から環境中に存在していた特徴量のみを、位置不変特徴量として抽出する。一方、両方向アプローチは、現在から将来にわたって環境中に存在する特徴量をも、位置不変特徴量として抽出する。換言すれば、両方向アプローチは、過去と現在、現在と将来の2つの情報セットを利用するため、一方向アプローチが有していた様々な問題を解決することができるのである。
なお、上述のパラメータλα及びλβを上昇させると、抽出される特徴量はより堅牢になる。しかしながら、このとき、抽出される特徴量の数は減少してしまう。パラメータλα及びλβを上昇させつつ、抽出される堅牢な特徴量の数も十分確保したいという場合、両方向アプローチは有効である。
本実施の形態では、両方向アプローチが、カメラの動きに関する典型的な2つの状況のいずれにおいても効果的であることを説明した。一般的なカメラの動きは、これらの単純な状況の組み合わせに分解することができるので、一般的に、両方向アプローチは、一方向アプローチよりも効果的に堅牢な特徴量を抽出できるといえる。
一方向アプローチ及び両方向アプローチのICGMは、PIRFに対して有利である。PIRFもまた、連続する画像から堅牢な特徴量を抽出するために使用される手法である。図3及び図4のアルゴリズムにおいて、Thr→∞とすると、一方向アプローチのICGMにおいて抽出される特徴量は、PIRFにより抽出される特徴量に近づく。しかしながら、PIRFでは、ウィンドウサイズ=2である場合、すなわち2枚の画像を使用する場合、十分に堅牢な特徴量を抽出することができない。もしPIRFでさらに堅牢な特徴量を抽出したければ、ウィンドウサイズをより大きくする必要があるが、そうすると抽出される特徴量の数は非常に少なくなってしまうという問題があった。一方、ICGMでは、Thrを小さく設定するほど、PIRF(ウィンドウサイズ=2)よりも堅牢な特徴量を抽出することが可能である。さらに、両方向アプローチを使用すれば、抽出される特徴量の数を増大させることができる。こうしたICGMの特徴は、例えば後述のSLAMなどの処理を行う際に有効に作用する。
<本発明の実施の形態3>
次に、実施の形態3として、実施の形態1及び実施の形態2として示した特徴量抽出手法、及び場所認識手法を、実際の環境に適用した実験例を開示する。併せて、本発明の効果について説明する。
(A)ICGMによる特徴量の抽出実験
この実験は、ICGMにより抽出される特徴量の精度を確認するための実験である。複数の画像から、ICGM及びSURFを使用して特徴量を抽出し、これらの特徴量の複数の画像間でマッチングが取れているかを比較する。
この実験に使用するデータセット(図9(a)に示す2つの画像)は、いずれも室内環境から取り込まれた(室内で撮影された)ものである。また、この環境には、いくつかの移動する物体が含まれている。この画像では、楕円で囲まれた右側のスプレーボトルが前後の画像で移動している。さらに、2つの画像では、カメラの撮影範囲も、水平方向に移動している。
図9(b)は、SURFにより、2つの画像から特徴点を抽出し、対応する特徴点同士をマッチングした状況を示している。この画像では、対応する特徴点同士を輝線で結んでいる。マッチングが正しければ、全ての輝線は水平であるはずだが、この画像では多くの輝線が傾いていることが分かる。すなわち、この例では、マッチングに多くの誤りが含まれている。加えて、移動した物体についても、マッチングが行われている。
図9(c)は、ICGMにより、2つの画像から位置不変特徴量を抽出し、対応する特徴点同士をマッチングした状況を示している。この画像では、ほとんどの輝線が水平であり、正しくマッチングが行われていることが分かる。また、移動した物体はマッチング対象とされず、無視されている。
ここで、SURFでマッチングが行われた特徴量の数は975であり、ICGMでマッチングされた特徴量の数は374であった。この実験は、ICGMが、カメラが移動するような動的な環境においても安定的かつ効果的に、堅牢すなわち位置不変な特徴量を抽出できることを示している。
(B)渋谷駅における場所認識実験
以下の実験は、ICGMを、SLAM(Simultaneous Localization and Mapping)に適用したものである。特許文献3及び非特許文献1の同様の実験においては、PIRFにより抽出された特徴量が使用されたが、本実験ではICGMにより抽出された特徴量を使用する。
この実験は、厳密にSLAMではないが、lCGMの場所認識の精度をテストするために好適である。この実験に使用するデータセットは、手持ちカメラを使用し、毎秒0.5フレームのレートで撮影された画像である(解像度は480*320にリサイズした)。撮影時の渋谷駅は多くの人で混雑している状況であった。学習データの取得のため撮影を行ったルートは約80メートルであり、学習時間は5分であった(図10)。
まず、学習データを学習データベースに格納し、ICGMとPIRFとを使用して、学習データから特徴量を抽出し、共通辞書12の構築を行った。ついで、テスト用画像から同様に特徴量を抽出した。最後に、両者の特徴量を用いて場所を推定する実験を行った。なお、図11は、ICGMを使用する場合において、両方向アプローチ又は一方向アプローチを使用する場合の比較を示している。両方向アプローチの方が、一方向アプローチよりも多くの位置不変特徴量を得ることができることがわかる。
実験の結果、PIRFを用いた場合の場所認識の精度は82.65パーセントであった。一方、ICGMを用いた場合は98.56%であった。
(c)Minamidai屋外実験(SLAM)
この実験に使用するデータセットは、手持ちカメラを使用し、毎秒0.5フレームのレートで撮影された画像である(解像度は480*320にリサイズした)。この実験では、撮影時の環境は混雑してはいなかったものの、いくつかの動的な物体(車、人間)が存在していた(図12)。学習データの取得のため撮影したルートは約170メートルであり、学習時間は9.5分であった。
図13に、実験結果を示す。実線は、場所の学習が行われたルートを示す。点は、場所の認識が成功した座標を示す。ルートの1周目において学習された場所が、2周目においては的確に認識されていることが分かる。
図14に、この実験の精度を示す。ICGMを用いた場所認識(Proposed method)の精度は、PIRF−nav2.0(特許文献3及び非特許文献1に記載の手法)及び公知のFAB−MAPよりも優れている。なお、Proposed method(real−time)とは、場所推定フェーズで一方向アプローチを用い、Proposed method(non−real−time)は、場所推定フェーズで両方向アプローチを用いたものである。Proposed method(non−real−time)の方が、Proposed method(real−time)よりも、抽出される特徴量の数が多いため、精度が向上している。なお、FAB−MAPが最も高速なのは、これがバッチ処理手法であるためである。
なお、画像Iの特徴量を抽出する際、両方向アプローチを用いる場合には、画像It+1も必要となる。換言すれば、将来の事象の情報(画像)が必要になる。すなわち、画像It+1を取得してから画像Iの特徴量を抽出する必要があるため、時刻tにおけるリアルタイムでの特徴量抽出は出来ず、若干のタイムラグを要する。よって、ロボットなどのリアルタイムシステムにおいて、リアルタイム性が求められる場所認識フェーズで、両方向アプローチを用いることは出来ない。この場合、一方向アプローチを用いる必要がある。しかしながら、リアルタイムシステムにおいても、リアルタイム性が求められない辞書作成フェーズでは、両方向アプローチを使用することは可能である。また、例えば歩行者ナビゲーションなどの用途においては、厳格なリアルタイム性はあまり必要とされないので、辞書作成および場所認識の両フェーズにおいて両方向アプローチを使用することにより、システムの性能を向上させることが可能である。
<本発明の実施の形態4>
上述したように、本発明においては、画像から場所同定ができ、辞書のオンライン更新が可能である。そこで、例えば、携帯の動画撮影機能と組み合わせると、以下のような応用が可能である。
デパートやショッピングモールなどで迷子になった時、携帯で周りの景色をさっと一振り撮影し、サーバに送る。サーバはその画像を解析し、それがどこに位置するのか、また付加的に、周りにどのような施設やショップがあるか、などを返答することができる。
屋内ではGPSは使えない。これに対し、本実施の形態においては、ユーザから送られてくる検索動画が、同時に辞書や地図の更新のためのデータとしても使える。このため、常時、辞書と地図の更新ができる。なお、従来のカーナビ等では、基本的に地図データの更新ができないか、更新するにはかなりの手間と費用がかかる。
携帯電話網にはサービス地域を分担して管理する基地局があるので、それぞれの基地局が、担当する範囲の地図を持ち、それを更新すればよい。つまり、巨大な辞書は不要で、メモリと演算速度が大幅に節約することができる。今後、眼鏡のようなウエアラブルビジョン(カメラ)が登場する可能性は高く、そうした眼鏡では常時場所を同定し、有用な情報を提示することもできる。
<本発明の実施の形態5>
実施の形態5では、画像の歪みや、回転(rotation)、剪断変形(shearing)、平行移動(translation)、拡大縮小(scaling)等に対しても頑健な位置不変特徴量を抽出し、より精度の高い場所推定を実現する手法を提案する。
(画像の歪み補正)
カメラのレンズ特性が、画像の歪みを引き起こすことがある。画像からより精度の高い対応特徴量、及び位置不変特徴量を抽出するためには、画像にこのような歪みのないことが好ましい。
画像の歪み補正を実施する手法として、例えばOpenCVが公知である。OpenCVによれば、内部パラメータ(f,f,c,c)、radial distortion(放射状の歪み)を示す係数(k,k)、tangential distortion(円周方向の歪み)を示す係数(p,p)をカメラのキャリブレーションを行うことにより取得し、取得した内部パラメータ及び歪み係数を使用して歪み補正を実施することができる。なお、上述の内部パラメータ及び歪み係数は、カメラ固有の値である。
局所特徴量抽出部21は、画像から局所特徴量を抽出する前に、上述の歪み補正処理を実施することが好適である。これにより、対応特徴量選択部23、位置不変特徴量抽出部24は、より良い精度で対応特徴量、位置不変特徴量を抽出することが可能となる。
(順序制約)
上述の実施の形態では、対応特徴量選択部23が対応特徴量のセットを抽出する処理について説明した。ところで、対応特徴量のセットには、真に対応するものでないのに、誤って対応特徴量と判定された特徴量の組も含まれ得る。発明者は、このように誤ってマッチするものと判断された特徴量の組を排除するための追加的手法として、順序制約を開発した。
図15において、特徴量のセットW=(a,b,c,d,e)及びW’=(a’,b’,c’,d’,e’)は、2つの画像から抽出された、対応する特徴量のセットを示している。ここで、aとa’、bとb’、cとc’、eとe’は、それぞれ正しくマッチングされた特徴量の組であるものとする。一方、dとd’は、誤ってマッチングされた特徴量の組であるものとする。
ある点i,i’が誤ってマッチングされた特徴点であるかどうかを判別するため、まず対応特徴量選択部23は、点iの相対距離ベクトルD,D’を求める。例えば、図15の点aにかかる相対距離ベクトルは、D=(b,c,d,e)と定義される。ここで、b,c,d,eは、点aに最も近い点から最も遠い点に至る順にソートされている。同様に点a’にかかる相対距離ベクトルは、D’=(d’,b’,c’,e’)と定義される。
つぎに、対応特徴量選択部23は、点i,i’のD,D’を使用して、指標offsetを求める。図16に、offsetの算出手法を示す。Dのs番目の要素がWであり、そのWとマッチングしているW’がDi’のk番目の要素となっているとき、offsetを|k−s|と定義する。
さらに、対応特徴量選択部23は、offsetを使用して、指標diff(D,Di’)を求る。式(12)に、diff(D,Di’)の定義を示す。
Figure 0006265499
diff(D,Di’)は、その値が大きいほど、誤ったマッチングである確率が高いことを示す指標である。すなわち、diff(D,Di’)は、マッチングされた特徴量の組が、正しいか、誤りであるかを区別する為に使用できる。例えば、図15の例では、diff(D,Da’)=0.25、diff(D,Dd’)=11/16と算出された。これは、特徴量d,d’の組は、誤ったマッチングである可能性が比較的高いことを意味している。
ところで、diff(D,Di’)は、アフィン不変な量でなく、またノイズ比率に敏感でない。そこで、diff(D,Di’)を正規化したdiffnormalを考える。diffnormalは、平均μdiff、標準偏差σdiffを用いて式(13)のように計算できる。
Figure 0006265499
対応特徴量選択部23は、ある特徴量のセットi,i’について、diffnormalを計算する。そして、diffnormal>TOCである場合、特徴量i,i’の組を、対応特徴量のセットから排除すべきもの、すなわち誤ってマッチングされたものと決定する。ここで、TOCは任意のしきい値である。
図15の例では、適切に設定されたしきい値TOCに基づき、dとd’が排除されよう。その結果、より信頼性の高い対応特徴量のセットである、WOC=(a,b,c,e)、W’OC=(a’,b’,c’,e’)が得られる。
このように、順序制約によれば、誤ってマッチングされた対応特徴量を排除でき、より高精度な対応特徴量のセットを構築できる。
(面積制約)
上述の実施の形態では、位置不変特徴量抽出部24が、位置不変特徴量を抽出する処理について説明したが、発明者は、より高精度な位置不変特徴量の計算を行う為の手法として、面積制約を開発した。
はじめに、面積制約の概念について説明する。回転(rotation)、剪断変形(shearing)、平行移動(translation)、拡大縮小(scaling)を含む図形の変形を、アフィン変換という。図17にアフィン変換の例を示す。この例では、2つの画像の間で、回転と縮小が行われている。ここで、W(a,b,c,d)とW’(a’,b’,c’,d’)とは、2つの画像にかかる対応特徴量のセットである。またo,o’は、W及びW’に含まれている1以上の点の、重心を示す。
これらの2つの画像を比較するに、Wに含まれる特徴点a,b,c,d、およびW’に含まれる特徴点a’,b’,c’,d’の座標は、それぞれ大きく異なる。一方、これらの特徴点を頂点として形成される複数の図形の面積Sの比例関係は変化していない。すなわち、Saob/Sabcd=Sa’o’b’/Sa’b’c’d’であり、Saob/Sabc=Sa’o’b’/Sa’b’c’であり、またSaob/Saoc=Sa’o’b’/Sa’o’c’である。この面積比のように、アフィン変換に対して不変である量をアフィン不変量といい、このような性質をアフィン不変という。
2つの画像から抽出された対応特徴量のセットから、このようなアフィン不変な面積の比例関係を有する図形が発見された場合、それらの2つの図形はアフィン変換されたもの、すなわち視点を変えて同一の対象物をとらえたものということができる。したがって、それらの図形を構成する特徴点は、位置不変特徴量とみなしうる。
上述の実施の形態に示した手法では、例えば対象物を異なる角度からとらえた2つの画像から、位置不変特徴量を精度よく抽出することができない場合があった。一方、面積制約によれば、このような2枚の画像からも、より良い精度で位置不変特徴量を抽出することができる。
なお、現実の世界は必ずしも平坦ではないため、現実の世界を写した画像も厳密にはアフィン不変ではない。しかし、画像中の主要な要素の大部分は、ほぼ平坦と考えることができるから、面積制約は有効であるといえよう。
かかる知見に基づき、位置不変特徴量抽出部24が位置不変特徴量を抽出するための具体的な手順を以下に示す。なお、以下の処理は、上述の順序制約に従って抽出された、対応特徴量のセットに対して行われるものとする。
まず、位置不変特徴量抽出部24は、Wに含まれる特徴点により形成される総面積SΣを、式(14)により計算する。
Figure 0006265499
また、位置不変特徴量抽出部24は、Wに含まれる特徴点の重心oを、式(15)により計算する。
Figure 0006265499
つづいて、位置不変特徴量抽出部24は、ある特徴点iを使用して形成される図形の面積比の偏差を、式(16)により計算する。なお、oは重心、jはi以外の任意の特徴点を示す。
Figure 0006265499
ここで、
Figure 0006265499
(以下、Devと表記する)について、Dev=0であれば、特徴点iを使用して形成される図形は完全にアフィン変換されている。また、Dev<TACであれば、特徴点iを使用して形成される図形はアフィン変換されているものとみなすことができる。なお、TACは任意の閾値であり、TACによりアフィン不変の頑強さを調整することができる。
ところで、面積制約により精度良い位置不変特徴量を得るためには、信頼できる重心o,o’を得ることが重要である。
図18に示すアルゴリズム2は、対応特徴量のセットから、アフィン変換されていない特徴点を除外する処理である。これにより、位置不変特徴量抽出部24は、位置不変特徴量を抽出することができる。そして、重心o,o’の信頼性は、計算の過程で徐々に向上してゆく。このアルゴリズム2にかかる処理は以下のとおりである。
Input:
まず、対応特徴量のセットW,W’を入力する。ここで、W,W’は、いずれも上述の順序制約により抽出されたものであることが好ましい。
Step1:
まず、特徴量のセットWtmp、W’tmpの初期値を、W,W’とする。このWtmp、W’tmpのそれぞれについて、重心o,o’、総面積SΣ、S’Σを式(14)、(15)により計算する。また、Wtmpのサイズ、すなわちWtmpに含まれる特徴量の数を、SizePreviousとして保存する。
Step2:
tmp、W’tmpに含まれる対応特徴量i,i’の組に着目し、
Figure 0006265499
(以下、AveDevと表記する)を式(17)により計算する。ここでAveDev>TACであれば、対応特徴量i,i’の組はアフィン変換されていないものと認定される。よって、Wtmp、W’tmpからi,i’をそれぞれ除去する。
Figure 0006265499
かかるAveDevの判定処理を、Wtmp、W’tmpに含まれる対応特徴量すべてについて実施する。
終了判定:
かかる処理ののち、Wtmpのサイズと、Step1で保存したSizePreviousとを比較する。ここで、両者のサイズが同じであれば、除去すべき対応特徴量はすべて除去されたものとして、処理を終了する。一方、両者のサイズが異なる場合は、対応特徴量の除去はまだ進行中であるから、Step1に戻り処理を続行する。
図19に示すアルゴリズム3は、アルゴリズム2の計算結果を補正する為の処理である。位置不変特徴量抽出部24は、アルゴリズム3により、アルゴリズム2の処理終了時点の重心o,o’を用いて、アルゴリズム2によって除外された特徴量を再検査する。これにより、アルゴリズム2の計算の初期段階、すなわち重心o,o’の信頼性が未だ低かった時点において、アルゴリズム2によって誤って除外された特徴量であって、本来は位置不変特徴量とすべき特徴量を、漏れなく救済することができる。アルゴリズム3にかかる処理は以下のとおりである。
Input:
まず、対応特徴量のセットW,W’およびWtmp、W’tmpを入力する。ここで、W,W’は、アルゴリズム2に入力されたものと同じ対応特徴量のセットである。またWtmp、W’tmpは、アルゴリズム2の出力である。
Step1:
まず、Wtmp、W’tmpのそれぞれについて、重心o,o’、総面積SΣ、S’Σを式(14)、(15)により計算する。また、Wtmpのサイズ、すなわちWtmpに含まれる特徴量の数を、SizePreviousとして保存する。
Step2:
W、W’に含まれる対応特徴量i,i’の組に着目し、i,i’がWtmp、W’tmpに含まれていない場合は、AveDevを式(17)により計算する。ここでAveDev<TACであれば、対応特徴量i,i’の組は、信頼できる重心o,o’により、アフィン変換されたものと判定されたことになる。よって、i,i’をWtmp、W’tmpにそれぞれ繰り入れる。かかる判定処理を、W、W’に含まれる対応特徴量すべてについて実施する。
終了判定:
かかる処理ののち、Wtmpのサイズと、Step1で保存したSizePreviousとを比較する。ここで、両者のサイズが同じであれば、救済すべき位置不変特徴量はすべて救済されたものとして、処理を終了する。このとき、Wtmp、W’tmpの内容をWAC、W’ACとして出力する。一方、両者のサイズが異なる場合は、位置不変特徴量の救済はまだ進行中であるから、Step1に戻り処理を続行する。
(場所推定)
上述の一連の処理により、精度の高い位置不変特徴量のセットWACが得られる。これを用いることによって、より精度の高い場所推定が可能となる。
現在の場所zと、比較対象の場所zとの類似度scg(z,z)は、式(18)により算出できる。
Figure 0006265499
ここで、SAffineは式(19)により算出できる。
Figure 0006265499
ここで、Npairは、対応特徴量選択部23が2つの場所の画像から取得した対応特徴量のセットのサイズである。ここでいう対応特徴量のセットは、上述の距離制約による補正を実施する前のセットであるものとする。すなわちSAffineは、距離制約、面積制約による一連の処理の前後における特徴量の一致度を示している。なお、0≦SAffine≦1である。
Dispersionは式(20)により算出できる。
Figure 0006265499
ここで、D(’)は式(21)により算出できる。
Figure 0006265499
Dispersionは、アフィン不変な特徴量を含む2つの画像について、類似度をさらに精密に評価する為の指標である。SDispersionは、対応特徴量のセットに含まれるすべての特徴点と重心oとの距離の平均が、2つの画像間で大きく異なるほど、類似度を小さくする効果を有する。これにより、たとえば、2つの画像中に、同一の対象物ではあるものの、大きさの異なる像が含まれる場合(すなわち対象物を異なる位置から撮影したような場合)に、その2つの画像の撮影場所は同一ではないと判定し得るようになる。なお、0<SDispersion<1である。
ところで、従来より提案されている類似度の評価手法として、以下の式(22)がある。ここで、Nzt及びNzcは、場所z及び場所zにおいて取得される局所特徴量の総数を示す。
Figure 0006265499
これに対し、発明者が提案する類似度の計算手法を、式(23)に示す。
Figure 0006265499
この手法によれば、距離制約、面積制約といった幾何学的な制約によって抽出された、よりノイズの少ない位置不変特徴量セットを利用して類似度を計算するので、より精度の高い類似度計算を行うことが可能である。
(実験結果)
最後に、実施の形態5として示した特徴量抽出手法、及び場所認識手法を、実際の環境に適用した実験例を開示する。
実施の形態3において実施したMinamidai屋外実験と同様の実験を、実施の形態5にかかる手法(距離制約、面積制約による位置不変特徴量算出手法。以下、affine−ICGM(real−time)という)を用いて実施した。
affine−ICGM(real−time)を用いた場所認識の結果は、Racall=97.5%、Precision=98.5%、Total Processing Time=194.3sec.であった。すなわち、affine−ICGM(real−time)は、上述の実施の形態のICGM(real−time)やICGM(non−real−time)よりも、精度及び処理時間の双方において優れている。
<本発明のその他の実施の形態>
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、特徴点は2次元であるという前提のもと本発明を説明した。しかしながら、特徴点は、環境から取得可能であれば、3次元以上の任意の次元であってよい。例えば、Kinect(登録商標)を使用すれば、2次元の画像情報に加え奥行情報を取得できるため、3次元の特徴点を抽出可能である。なお、特徴点の次元数に係わらず、図X及び図Yに示すアルゴリズムにより、位置不変特徴量の抽出が可能である。すなわち、特徴点にトポロジが定義できるのであれば、このアルゴリズムは適用できる。例えば、遺伝子配列の類似度判定等に応用が可能である。
また、カメラ画像からカメラの運動の軌跡を検出するビジュアル・オドメトリ手法と、本発明とを組み合わせれば、カメラ画像のみを用いたナビゲーションが可能である。本発明によれば、既知の現在位置(場所)検出手法であるGPS等によらず、カメラ画像から現在位置(場所)を推定することができるからである。例えば、室内やGPS受信困難な場所を移動するロボットや、カメラ付きスマートフォンにおけるナビゲーションに応用が可能である。
また、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
この出願は、2012年11月6日に出願された日本出願特願2012−244540を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 場所推定装置
11 特徴量抽出部
12 共通辞書
13 マッチング部
14 類似度算出部
15 場所認定部
21 局所特徴量抽出部
22 特徴量マッチング部
23 対応特徴量選択部
24 位置不変特徴量抽出部

Claims (14)

  1. 入力画像から位置不変特徴量を抽出する特徴量抽出手段と、
    各登録場所と位置不変特徴量が対応づけられて保存されているデータベースを参照し、入力画像と登録場所とのマッチングを求めるマッチング手段と、
    マッチングが所定の閾値以上である場合に、選ばれた登録場所の近傍の登録場所を含めて類似度を算出する類似度算出手段と、
    前記類似度が所定の閾値以上である場合に、当該入力画像が登録場所であると認定する場所認定手段とを有し、
    前記特徴量抽出手段は、
    連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択手段と、
    前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出手段とを有し、
    前記位置不変特徴量抽出手段は、前記対応特徴量のうち、前記入力画像内に存在する他の前記対応特徴量に対する相対位置の変化が所定のしきい値以下である前記対応特徴量を、前記位置不変特徴量として抽出する
    場所推定装置。
  2. 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれにおいて、既に抽出された前記位置不変特徴量の重心と、前記対応特徴量の1つとにより形成されるベクトルを定義し、
    連続画像からなる入力画像それぞれにおいて形成された前記ベクトルの差分が、所定のしきい値以下であった場合、前記対応特徴量の1つを、前記位置不変特徴量として新たに抽出し、
    前記重心を、前記重心と前記新たな位置不変特徴量との重心で更新する処理を、
    すべての前記対応特徴量について繰り返し実行する
    請求項1記載の場所推定装置。
  3. 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれに存在し、互いに対応する前記対応特徴量の組を2組ランダムに選択し、
    連続画像からなる入力画像それぞれにおいて、2つの対応特徴量により形成されるベクトルを定義し、
    前記ベクトルの差分が、所定のしきい値以下であった場合、これらの前記対応特徴量を、前記位置不変特徴量として最初に抽出する
    請求項1記載の場所推定装置。
  4. 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)又はSURF(Speed Up Robustness Features)の少なくともいずれか一方の特徴量である
    請求項1記載の場所推定装置。
  5. 前記位置不変特徴量抽出手段は、時刻tに撮影された画像と、前記tより前である時刻t−1に撮影された画像と、から抽出される第1の位置不変特徴量と、前記時刻tにかかる画像と、前記tより後である時刻t+1に撮影された画像と、から抽出される第2の位置不変特徴量と、の論理和を、前記位置不変特徴量として出力する
    請求項1記載の場所推定装置。
  6. 前記対応特徴量選択手段は、所定の前記対応特徴量と、他の前記対応特徴量と、の相対距離に基づいて、前記特徴量マッチング手段による前記マッチングの誤りを検査し、誤って前記マッチングされた前記対応特徴量を除去する
    請求項1記載の場所推定装置。
  7. 前記位置不変特徴量抽出手段は、前記対応特徴量に関係するアフィン不変量を検出することにより、前記位置不変特徴量を抽出する
    請求項1記載の場所推定装置。
  8. 連続して撮影された連続画像からなる入力画像それぞれから、局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出された局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により連続する画像間でマッチングが取れた特徴量を対応特徴量として選択する対応特徴量選択手段と、
    前記対応特徴量に基づき位置不変特徴量を求める位置不変特徴量抽出手段とを有し、
    前記位置不変特徴量抽出手段は、前記対応特徴量のうち、前記入力画像内に存在する他の前記対応特徴量に対する相対位置の変化が所定のしきい値以下である前記対応特徴量を、前記位置不変特徴量として抽出する
    特徴量抽出装置。
  9. 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれにおいて、既に抽出された前記位置不変特徴量の重心と、前記対応特徴量の1つとにより形成されるベクトルを定義し、
    連続画像からなる入力画像それぞれにおいて形成された前記ベクトルの差分が、所定のしきい値以下であった場合、前記対応特徴量の1つを、前記位置不変特徴量として新たに抽出し、
    前記重心を、前記重心と前記新たな位置不変特徴量との重心で更新する処理を、
    すべての前記対応特徴量について繰り返し実行する
    請求項8記載の特徴量抽出装置。
  10. 前記位置不変特徴量抽出手段は、連続画像からなる入力画像それぞれに存在し、互いに対応する前記対応特徴量の組を2組ランダムに選択し、
    連続画像からなる入力画像それぞれにおいて、2つの対応特徴量により形成されるベクトルを定義し、
    前記ベクトルの差分が、所定のしきい値以下であった場合、これらの前記対応特徴量を、前記位置不変特徴量として最初に抽出する
    請求項8記載の特徴量抽出装置。
  11. 前記局所特徴量は、SIFT(Scale Invariant Feature Transformation)又はSURF(Speed Up Robustness Features)の少なくともいずれか一方の特徴量である、
    請求項8記載の特徴量抽出装置。
  12. 前記位置不変特徴量抽出手段は、時刻tに撮影された画像と、前記tより前である時刻t−1に撮影された画像と、から抽出される第1の位置不変特徴量と、前記時刻tにかかる画像と、前記tより後である時刻t+1に撮影された画像と、から抽出される第2の位置不変特徴量と、の論理和を、前記位置不変特徴量として出力する
    請求項8記載の特徴量抽出装置。
  13. 前記対応特徴量選択手段は、所定の前記対応特徴量と、他の前記対応特徴量と、の相対距離に基づいて、前記特徴量マッチング手段による前記マッチングの誤りを検査し、誤って前記マッチングされた前記対応特徴量を除去する
    請求項8記載の特徴量抽出装置。
  14. 前記位置不変特徴量抽出手段は、前記対応特徴量に関係するアフィン不変量を検出することにより、前記位置不変特徴量を抽出する
    請求項8記載の特徴量抽出装置。
JP2014545574A 2012-11-06 2013-11-06 特徴量抽出装置及び場所推定装置 Active JP6265499B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012244540 2012-11-06
JP2012244540 2012-11-06
PCT/JP2013/006550 WO2014073204A1 (ja) 2012-11-06 2013-11-06 特徴量抽出装置及び場所推定装置

Publications (2)

Publication Number Publication Date
JPWO2014073204A1 JPWO2014073204A1 (ja) 2016-09-08
JP6265499B2 true JP6265499B2 (ja) 2018-01-24

Family

ID=50684329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545574A Active JP6265499B2 (ja) 2012-11-06 2013-11-06 特徴量抽出装置及び場所推定装置

Country Status (4)

Country Link
US (1) US9396396B2 (ja)
EP (1) EP2922022B1 (ja)
JP (1) JP6265499B2 (ja)
WO (1) WO2014073204A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898677B1 (en) 2015-10-13 2018-02-20 MotionDSP, Inc. Object-level grouping and identification for tracking objects in a video
KR102465332B1 (ko) * 2015-12-29 2022-11-11 에스케이플래닛 주식회사 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP6515259B2 (ja) * 2016-02-24 2019-05-22 Soinn株式会社 特徴量抽出方法及び特徴量抽出装置
CN107515006A (zh) * 2016-06-15 2017-12-26 华为终端(东莞)有限公司 一种地图更新方法和车载终端
JP7046506B2 (ja) * 2017-06-12 2022-04-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN108256463B (zh) * 2018-01-10 2022-01-04 南开大学 基于esn神经网络的移动机器人场景识别方法
CN110471407B (zh) * 2019-07-02 2022-09-06 无锡真源科技有限公司 一种模组自动调节的自适应定位系统及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
JP2010033447A (ja) * 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
KR101591471B1 (ko) * 2008-11-03 2016-02-04 삼성전자주식회사 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법
JP2010115307A (ja) 2008-11-12 2010-05-27 Sozosha:Kk モイスチャ処理装置
JP2010238008A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 映像特徴抽出装置、及びプログラム
JP5305031B2 (ja) 2009-08-31 2013-10-02 トヨタ自動車株式会社 特徴量抽出装置及び方法、並びに位置推定装置及び方法
JP5557189B2 (ja) 2010-03-31 2014-07-23 トヨタ自動車株式会社 位置推定装置、位置推定方法及びプログラム
US10108620B2 (en) * 2010-04-29 2018-10-23 Google Llc Associating still images and videos
US9098744B2 (en) 2010-05-19 2015-08-04 Tokyo Institute Of Technology Position estimation device, position estimation method, and program

Also Published As

Publication number Publication date
JPWO2014073204A1 (ja) 2016-09-08
EP2922022A1 (en) 2015-09-23
EP2922022B1 (en) 2020-01-01
WO2014073204A1 (ja) 2014-05-15
US9396396B2 (en) 2016-07-19
EP2922022A4 (en) 2016-10-12
US20150294157A1 (en) 2015-10-15

Similar Documents

Publication Publication Date Title
JP6265499B2 (ja) 特徴量抽出装置及び場所推定装置
US11144786B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
CN111325796B (zh) 用于确定视觉设备的位姿的方法和装置
JP6430064B2 (ja) データを位置合わせする方法及びシステム
JP2019087229A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP5771413B2 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
CN111094895B (zh) 用于在预构建的视觉地图中进行鲁棒自重新定位的系统和方法
CN112991447A (zh) 一种动态环境下视觉定位与静态地图构建方法及系统
US9098744B2 (en) Position estimation device, position estimation method, and program
US10366305B2 (en) Feature value extraction method and feature value extraction apparatus
JP5557189B2 (ja) 位置推定装置、位置推定方法及びプログラム
Piciarelli Visual indoor localization in known environments
CN114608521B (zh) 单目测距方法及装置、电子设备和存储介质
KR20130023433A (ko) Slam 기술 기반 이동 로봇의 지도를 관리하기 위한 장치 및 그 방법
Terashima et al. A visual-SLAM for first person vision and mobile robots
Poglitsch et al. [POSTER] A Particle Filter Approach to Outdoor Localization Using Image-Based Rendering
JP2014102805A (ja) 情報処理装置、情報処理方法及びプログラム
CN113916223B (zh) 定位方法及装置、设备、存储介质
Brauer et al. Generative 2d and 3d human pose estimation with vote distributions
KR20210028538A (ko) 가상 현실에서 인사이드 아웃 트래킹을 위한 imu 센서 데이터를 활용하는 가속 비전 기반 포즈 추정 방법
JP2002109539A (ja) 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法
Kajiwara et al. High-Speed Detection of Down Staircase for Visually Impaired People Using Illuminance of Point Pattern.
CN115775325B (zh) 一种位姿确定方法及装置、电子设备和存储介质
Johns et al. Urban position estimation from one dimensional visual cues
CN112927291B (zh) 三维物体的位姿确定方法、装置及电子设备和存储介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20161020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171215

R150 Certificate of patent or registration of utility model

Ref document number: 6265499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250