JPWO2017145711A1 - 特徴量抽出方法及び特徴量抽出装置 - Google Patents

特徴量抽出方法及び特徴量抽出装置 Download PDF

Info

Publication number
JPWO2017145711A1
JPWO2017145711A1 JP2018501110A JP2018501110A JPWO2017145711A1 JP WO2017145711 A1 JPWO2017145711 A1 JP WO2017145711A1 JP 2018501110 A JP2018501110 A JP 2018501110A JP 2018501110 A JP2018501110 A JP 2018501110A JP WO2017145711 A1 JPWO2017145711 A1 JP WO2017145711A1
Authority
JP
Japan
Prior art keywords
feature
feature amount
local
local feature
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018501110A
Other languages
English (en)
Other versions
JP6515259B2 (ja
Inventor
徹 萱沼
徹 萱沼
長谷川 修
修 長谷川
貴大 寺島
貴大 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOINN HOLDINGS LLC
Original Assignee
SOINN HOLDINGS LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOINN HOLDINGS LLC filed Critical SOINN HOLDINGS LLC
Publication of JPWO2017145711A1 publication Critical patent/JPWO2017145711A1/ja
Application granted granted Critical
Publication of JP6515259B2 publication Critical patent/JP6515259B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Abstract

多数の人によって混雑しているような動的な環境において撮影された連続画像から、静的な特徴量を高精度に抽出する。特徴量抽出装置(1)は、連続して撮影した連続画像を取得する連続画像取得部(11)と、連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出部(12)と、局所特徴量抽出部(12)により抽出した局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング部(13)と、特徴量マッチング部(13)により所定数連続する画像間でマッチングが取れた局所特徴量うち、前記連続画像間における位置の変化が所定のしきい値以下である対応特徴量の平均を、不変特徴量として求める不変特徴量算出部(14)と、を有する。

Description

本発明は、複数の連続する連続画像から動的な特徴量を削除し、安定した静的な特徴量を抽出する特徴量抽出方法及び特徴量抽出装置に関する。
近年、未知の環境での人やロボットのナビゲーションへのニーズが高まっている。その達成のためには、自律的に環境地図を構築したり、自己位置を推定したりする必要がある。こういった自律的地図構築および自己位置推定を行う問題は、一般的にSLAM(Simultaneous Localization And Mapping) と呼ばれ、広く研究されてきた。さらに、近年ではSLAM の技術を無人飛行体や車へ応用することを目的とした研究も行われている。
しかし、一般的なSLAMは静的な環境を想定している。それに対し、我々が生活する実際の環境は多くの人や物が行き交う動的な環境である。そのため、実際の環境に従来のSLAM手法を応用しようとすると、動く人や物をランドマークとして誤って認識してしまい、精度が低下してしまう問題がある。
このような自律的地図構築および自己位置推定には、周辺環境の特徴量をいかに正確に抽出するかが大きなポイントとなる。従来、環境から局所特徴量を抽出する手法としては、アフィン不変の特徴量(MSER,Harris−Affine,Hessian−Affine,Salient Regionなど)や、大きさ変化に不変な特徴量(SIFT:Scale Invariant Feature Transformation,SURF:Speed Up Robustness Featuresなど)がある。
また、連続画像において、上述の手法で各画像から抽出した局所特徴量の中から、撮影位置の変化にロバストなものだけをさらに抽出した特徴量としてPIRF(Position-Invariant Robust Features)がある(特許文献1乃至3)。なお、PIRFを応用した自律的地図構築が既に提案されている(特許文献4)。PIRFでは、静的で安定な特徴量であれば連続画像間で何フレームかに渡って存在するはずであるとの仮定のもと、特徴量を選び出している。ここで、PIRFは、連続画像間に共通して存在するSIFTやSURFといった局所特徴量のことを指す。PIRFを用いることで、連続画像間に共通していない、すなわち動的な特徴量を除外できるので、単にSIFTやSURFといった局所特徴量を用いる場合と比べて、動的環境下でも高い精度を実現できる。
ここで、動的な特徴量の定義について詳細に説明する。周りの環境に静的なものしか存在しない場合、例えば、撮影された連続画像を何フレームかに渡って比較しても、写っているものやその位置に大きな変化は見られないと考えられる。一方、動く人や物がカメラに写り込んだ場合、その人や物を連続画像で何フレームかに渡って比較すると、画像から消えたり、写っている位置に変化が見られたりする。このように、動く人や物は連続画像を何フレームかに渡って比較することで特定することができる。以下では、連続画像から得られた局所特徴量を数フレーム間で比較し、位置に大きな変化が見られたものを動的な特徴量と定義する。
環境から局所特徴量を抽出する手法として、他にもICGM(Incremental Center of Gravity Matching)が提案されている(特許文献5)。ICGMでは、複数の局所特徴量の重心位置から各局所特徴量へのベクトルを定義し、これらのベクトルを連続画像間で比較することで、動的物体からの動的な局所特徴量と、静的物体からの静的で安定な局所特徴量と、を区別できる。
特開2011−53823号公報 特開2011−215716号公報 国際公開第2011/145239号 国際公開第2012/035707号 国際公開第2014/073204号
ところが、特許文献4に記載のPIRFでは、連続画像間に共通しているものの、連続画像のフレームの範囲内で動いているような動的な特徴量までは除外することはできない。そのため、PIRFにはこのような動的な特徴量が含まれてしまい、SLAMの精度低下を招いてしまう。
特許文献5に記載のICGMでは、アルゴリズム上の前提として、静的な特徴量のみを選択した状態で重心位置を求める。また、ICGMでは、重心位置を求めるための局所特徴量はランダムに選択される。しかし、選択対象となる特徴量には、静的な特徴量と動的な特徴量とが混在する。そのため、動的な特徴量が選択されるおそれがあり、この場合、動的な特徴量から求められた重心位置は前後の画像で位置が大きく変化してしまう。このように重心位置が大きく変化してしまうと、その重心位置からの静的な特徴量へのベクトルも大きく変化してしまう。これにより、静的な特徴量を誤って動的な特徴量だと判断して削除してしまうおそれがある。その結果、SLAMにICGMを応用すると、精度の低下を招いてしまう。
本発明は、上記に鑑みて成されたものであり、多数の人によって混雑しているような動的な環境において撮影された連続画像から、静的な特徴量を高精度に抽出することを目的とする。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本発明の第1の態様である特徴量抽出方法は、連続して撮影した連続画像を取得する連続画像取得工程と、前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量うち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める不変特徴量算出工程と、を有するものである。
本発明の第2の態様である特徴量抽出方法は、上述の特徴量抽出方法であって、前記不変特徴量算出工程において、前記マッチングが取れた局所特徴量のそれぞれについてマッチング距離を算出し、前記マッチングが取れた局所特徴量を、算出したマッチング距離に基づいて並べ替え、前記マッチング距離が小さい順に、前記マッチングが取れた局所特徴量から所定の個数の局所特徴量を選択し、選択した局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める、ものである。
本発明の第3の態様である特徴量抽出方法は、上述の特徴量抽出方法であって、前記連続画像の第1のフレームにおいて、前記マッチングが取れた局所特徴量から選択したものの重心位置を計算し、かつ、前記マッチングが取れた局所特徴量から選択したもののそれぞれと、前記重心位置と、を結ぶベクトルを求め、前記第1のフレームに対して時間的に前又は後の前記連続画像の第2のフレームにおいて、前記マッチングが取れた局所特徴量から選択したものの重心位置を計算し、かつ、前記マッチングが取れた局所特徴量から選択したもののそれぞれと、前記重心位置と、を結ぶベクトルを求め、前記マッチングが取れた局所特徴量のそれぞれについて、前記第1のフレームにおいて求めた前記ベクトルと、前記第2のフレームにおいて求めた前記ベクトルと、の間の誤差が所定の閾値以下である場合に、対応する局所特徴量を前記不変特徴量として求める、ことが望ましい。
本発明の第4の態様である特徴量抽出方法は、上述の特徴量抽出方法であって、前記マッチングが取れた局所特徴量のそれぞれについて前記第1のフレームにおいて求めた前記ベクトルをCGVT、前記マッチングが取れた局所特徴量のそれぞれについて前記第2のフレームにおいて求めた前記ベクトルをCGVT−1としたときに、前記誤差であるRoDは、以下の式で求められる、ことが望ましい。
Figure 2017145711
本発明の第5の態様である特徴量抽出装置は、連続して撮影した連続画像を取得する連続画像取得手段と、前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量うち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める不変特徴量算出手段と、を有するものである。
本発明によれば、多数の人によって混雑しているような動的な環境において撮影された連続画像から、静的な特徴量を高精度に抽出することができる。
実施の形態1にかかる特徴量抽出装置を示す図である。 実施の形態1にかかる特徴量抽出方法を示すフローチャートである。 実施の形態1にかかる特徴量PIRFを抽出する方法を説明する図である。 実施の形態1にかかるICGM2.0のアルゴリズムを示す図である。 ICGMでの重心とベクトルとの関係を示す図である。 動的な特徴量を削除した結果を示す図である。 屋内での実験環境を示す図である。 屋内での実験結果(ビジュアルオドメトリ)を示す図である。 屋内での実験結果(Loop−Closingの有無の比較)を示す図である。 屋内での実験結果(Recall及びPrecision)を示す図である。 屋外での実験環境を示す図である。 屋外での実験結果(ビジュアルオドメトリ)を示す図である。 屋外での実験結果(Loop−Closingの有無の比較)を示す図である。 屋外での実験結果(Recall及びPrecision)を示す図である。 実施の形態2にかかる静的な特徴量の抽出方法を示す図である。 実施の形態2にかかる静的な特徴量を抽出するICGM2.5のアルゴリズムを示す図である。 PIRFのアルゴリズムを示す図である。 動的な環境下で撮影された画像に対し、従来手法(ORB(つまり、PIRF、ICGM、ICGM2.0、ICGM2.5のいずれも適用しない場合)、ICGM、ICGM2.0及びICGM2.5を適用にて動的な特徴量を削除する処理を行った結果を示す図である。 屋内での実験環境の画像と、その画像にICGM2.5を適用して特徴量の抽出を行った結果を示す図である。 屋内での実験経路を示す図である。 屋内での評価実験で作成されたビジュアルオドメトリを示す図である。 Loop−Closingの有無によるビジュアルオドメトリの変化を示す図である。 屋外での実験環境の画像と、その画像にICGM2.5を適用して特徴量の抽出を行った結果を示す図である。 屋外での実験経路を示す図である。 屋外での評価実験で作成されたビジュアルオドメトリを示す図である。 Loop−Closingの有無によるビジュアルオドメトリの変化を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。各図面においては、同一要素には同一の符号が付されており、必要に応じて重複説明は省略される。
混雑な環境下でも特徴点を抽出した画像を用いたSLAMにおいて多く用いられている特徴点として、SIFTやコーナー点がある。一般にSIFTやコーナー点などの局所特徴点は対応付けが取りやすく、画像を用いたSLAMに適している。しかし、多くの人が入り乱れる混雑な環境下で撮影者が取得した画像からSIFTを抽出すると、撮影者(ロボット等)が少し移動しただけで消えてしまうような弱い特徴点や、動いている人物からの特徴点が多く抽出されてしまうという問題があった。そのような不安定な特徴点が多いと、無駄に処理時間が延びるだけでなく、SLAMに悪影響を及ぼすという問題が起こる。
これに対し、上述の特許文献1に示すように、PIRF(Position Invariant Robust Feature)を適用することで、撮影者の移動に対して見た目の変化の小さい部分を特徴として抽出することができ、それにともなって、動いている人物などから抽出される見た目の変化の大きい部分の特徴点を除外できる。
しかし、PIRFには、上述したように、実質的に静止している対象物から抽出される特徴点の他に、動いている対象物(人など)から抽出される特徴点が含まれてしまう。こうした動いている対象物(人など)から抽出される特徴点は、SLAMにとっては誤差要因となってしまう。そこで、本発明では、PIRFによる前処理を行った後にICGMを適用することで、残存する動的な特徴量を更に除去している。これにより、動的な特徴量を精度よく除外することができるので、単にPIRF又はICGMを用いる場合と比べて、より静的な特徴点のみを抽出することができる。このように、PIRF及びICGMの両者を適用する手法を、ICGM2.0と称する。
本願発明者等は鋭意実験研究し、上記ICGM2.0を利用して複数の画像データから特徴点を取り出すことで、たくさんの人が存在する混雑な環境下でも安定した静的な特徴点を抽出する方法及び装置を見出した。
実施の形態1
本実施の形態では、人混みなどの動的環境下で取得した連続画像に含まれる局所特徴量を、動的物体からの動的な局所特徴量と静的物体からの安定した静的な局所特徴量とに分け、静的な局所特徴量のみを抽出する。これにより、正確なSLAMを行うことが可能となる。換言すれば、本実施の形態では、連続画像に含まれる局所特徴量から動的な局所特徴量のみを削除し、静的な局所特徴量を不変特徴量として抽出する。
本実施の形態にかかる特徴量抽出装置について説明する。図1は、本実施の形態にかかる特徴量抽出装置を示す図である。図1に示すように、本実施の形態にかかる特徴量抽出装置1は、連続画像取得部11、局所特徴量抽出部12、特徴量マッチング部13及び不変特徴量算出部14を有する。
連続画像取得部11は、ロボット等の移動体が移動する間に連続して撮影した連続画像を取得する。局所特徴量抽出部12は、連続画像取得部11により取得した連続画像から各特徴点における局所特徴量を抽出する。特徴量マッチング部13は、局所特徴量抽出部12により抽出した局所特徴量について、連続する入力画像間でマッチングをとる。不変特徴量算出部14は、特徴量マッチング部13により所定数連続する画像間でマッチングが取れた局所特徴量のうち、位置の変化が所定のしきい値以下である局所特徴量の平均を不変特徴量として求める。
以下、本実施の形態にかかる特徴量抽出装置1の不変特徴量の抽出について、詳細に説明する。図2は、本実施の形態にかかる特徴量抽出装置1の不変特徴量の抽出方法を示すフローチャートである。
ステップS1:連続画像取得
まず、連続画像取得部11は、ロボット等の移動体が移動する間に、連続して撮影した連続画像を取得する。本実施の形態では、連続画像からPIRFが取得される。PIRFは、複数枚の連続画像から抽出される特徴量であるため、入力としては、連続する画像、すなわちビデオ画像が必要となる。PIRFで要求される連続画像とは、ある画像セットであって、一定のフレームで、例えば1秒毎に2フレームなど、毎秒毎に連続的に撮影されたビデオ画像をいう。すなわち、ビデオからキャプチャされた画像は一般的に連続的であり、PIRFにおける連続画像は、ビデオ画像を使用したものでなければならない。画像の取得率は、カメラの速度に応じて設定される。たとえば、カメラが車に搭載されていた場合、カメラの速度は1分間に約1000m/分であり、ビデオからキャプチャされる連続画像はおよそ50乃至100フレーム/秒となる。
以下、PIRFの抽出について具体的に説明しつつ、不変特徴量の抽出について説明する。図3は、本実施の形態にかかる特徴量PIRFを抽出する方法を説明する図である。また、図4に、ICGM2.0のアルゴリズムを示す。
ステップS2:局所特徴量抽出
局所特徴量抽出部12は、連続画像取得部11により取得した連続画像から、各特徴点における局所特徴量を抽出する。局所特徴量抽出部12は、既存の局所特徴量抽出方法を使用して局所特徴量を抽出する。
局所特徴量抽出部12は、例えば、SIFT(Scale Invariant Feature Transformation)、又はSURF(Speed Up Robustness Features)の特徴量を使用することができる。または、これらSIFTやSURFに限らず、他の局所特徴量を使用することができることは勿論である。特に、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることが好ましい。これらの局所特徴量を用いることで、既存の特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。ここで、i番目のエリアにおける画像の数をnとし、その中でj番目の画像から抽出された局所特徴量の集合をU とする。ここでは、局所特徴量はu→で表す。
ステップS3:局所特徴量のマッチング
特徴量マッチング部13は、連続画像間で局所特徴のマッチングを行い、予め定めた枚数間で、連続してマッチングのとれている特徴を選択し、その中でマッチングを行った画像のうち最新の画像から抽出された特徴量とその座標を特徴量PIRFとして抽出・記述する。
具体的には、特徴量マッチング部13は、連続する2枚の画像間全てについて局所特徴量u→を構成する各特徴量のマッチングを行う。すなわち、j=q番目の画像の全局所特徴量について、j=q+1番目の画像の全局所特徴量に対してマッチングを行う。ここでは、それぞれマッチングのとれた特徴へのインデックスをマッチング結果ベクトルm →として求める。
ここで、マッチング方法の一例について、SIFTを例にとって説明する。画像Iから抽出される特徴をvとする。この特徴vが次の画像Ia+1の特徴v'とマッチングするか否かを判定する。先ず、特徴vと画像Ia+1から抽出した全ての特徴との間のドット積(dot product)を求める。そして、最も類似する特徴vfirstと、2番目に類似する特徴vsecondを求めるために、この結果をソートする。もし、

(vfirst・v)/(vsecond・v)>θ

が成立する場合、マッチングのとれた特徴v'=vfirstと判定する。ここで、閾値θはたとえば0.6とすることができる。上記が成立しない場合は、画像Iにおける特徴vにマッチングする特徴は、画像Ia+1には存在しないと判定する。
図3に示すように、各入力画像から6つの局所特徴量が抽出された場合について説明する。これら6つの局所特徴量間でマッチングを取り、マッチングが取れた場合にのみ、マッチングが取れた特徴量へのインデックスを付す。例えば、m →の1番目の局所特徴量は、m →の3番目の局所特徴量とマッチングがとれていることを示し、m →の3番目の特徴量は、m →の6番目の特徴量とマッチングが取れていることを示す。
次に、特徴量マッチング部13は、連続特徴量を選択する。先ず、いくつのm →を使用して連続特徴量を求めるかを決定する。このm →の数を、本明細書においては、ウィンドウサイズwともいう。また、このウィンドウサイズwに含まれるm →の集合を、サブプレイスという。ここで、ウィンドウサイズwが大きいほどより頑健な、識別力の高い連続特徴量のみを抽出できるが、大きすぎると特徴数が極端に少なくなってしまう。また、小さすぎると、頑健ではない、識別力のないような特徴量も抽出してしまうので、目的等に応じて最適な大きさとする必要がある。
本実施の形態においては、ウィンドウサイズwを3とする。したがって、連続する4枚の入力画像を使用して連続特徴量を求める。すなわち、図3に示すように、1番目のサブプレイスには、m →、m →、m →が含まれ、入力画像I、I、I、Iが対応する。なお、インデックスの数が0の場合は、次にマッチングする特徴量がないことを示す。よって、図3の場合、1番目のサブプレイスには、3つの連続特徴量が含まれることになる。
特徴量マッチング部13は、ウィンドウサイズwを設定したらこのウィンドウwをひとつずつずらしながら、そのウィンドウサイズに含まれる画像4枚内で共通して出現する特徴を連続特徴量として抽出する。ウィンドウサイズwを設定したら、連続特徴量を抽出するために用いる関数を以下のように定義する。ただし、bは注目するインデックスベクトルの番号とする。
Figure 2017145711
特徴量マッチング部13は、全てのマッチング結果ベクトルm →について、f(mx,y )を計算し、f(mx,y )>0となるときの局所特徴量ux,y →のみを抽出する。入力画像の数がn、ウィンドウサイズがwのとき、サブプレイスの数は、n−w+1となる。なお、このウィンドウサイズは、可変であってもよく、周りの状況等に合わせて、適宜変更してもよい。
ステップS4:不変特徴量の算出
不変特徴量算出部14は、同一ウィンドウグループであるサブプレイス内においてマッチングがとれた局所特徴量の平均を求める。これらのベクトルのうち、サブプレイス内の最新の画像から抽出された特徴量とその座標によりPIRF辞書が構成される。全サブプレイス(n−w+1)個から抽出された(n−w+1)個のサブプレイスPIRF辞書(D ,j≦n−w+1)をPIRF辞書(D)に登録する。このPIRF辞書を構成する、マッチングがとれた局所特徴量の平均各がPIRFである。
次いで、不変特徴量算出部14は、PIRFに残存する動的な局所特徴量を削除するため、PIRFに対してICGMを適用する(ICGM2.0)。
ICGMでは、まず、時間的に異なるフレームのそれぞれについて、複数の静的な局所特徴量の重心を計算し、この重心から各局所特徴量へのベクトルを求める。そして、求めたベクトルを、異なるフレーム間で比較し、各局所特徴量へのベクトルが異なっていた場合、その局所特徴量を動的な局所特徴量と識別する。
ICGMでは、例えば図5に示すように、画像Iに特徴量A、B、C、D及びEが存在し、It−1に対応する特徴量a,b,c,d及びeが存在するものとする。また、特徴量A、B及びCは静的な特徴量,特徴量D及びEは動的か静的かが不明な特徴量とし、対応する特徴量も同様とする。この場合、ICGMでは、まず静的な特徴量A、B及びCの重心Oを求め、同様にa、b及びcの重心oを求める。次に、重心Oから静的か動的か不明な特徴量D及びEへのベクトルと、重心oから静的か動的か不明な特徴量d及びeへのベクトルを計算する。
図5の例では、
Figure 2017145711

Figure 2017145711
とはフレーム間で異なっており、
Figure 2017145711

Figure 2017145711
とはフレーム間で等しい。よって,特徴量Dは動的な特徴量、特徴量Eは静的な特徴量と識別される。
まず、不変特徴量算出部14は、PIRFによって抽出された局所特徴量の重心位置を算出する。ここで、PIRFによって抽出された局所特徴量の数をn(nは、任意の正の整数)とする。PIRFによって抽出された局所特徴量の座標をp(iは、0≦i≦nを満たす整数)とすると、重心位置CGは、以下の式(1)で表される。
Figure 2017145711
また、重心位置CGからの任意の局所特徴量の座標Pへのベクトルの要素を、以下の式(2)で示すように定義する。
Figure 2017145711
式(2)より、時間的に連続するフレームIt−1(第2のフレームとも称する)及びI(第1のフレームとも称する)において、重心位置CGとこれらフレーム間でマッチングされた局所特徴量p との関係を表すベクトルCGVT−1及びCGVが得られる。これらのベクトルを以下の式(3)に適用することで、誤差率RoDを算出する。
Figure 2017145711
このRoDを閾値Thrと比較し、RoD≦Thrならば、その局所特徴量を静的な局所特徴量として判断する。また、RoD>Thrならば、その局所特徴量を動的な局所特徴量と判断・削除し、残った局所特徴量により、ICGM2.0辞書が構成される。
このように抽出されたICGM2.0辞書に含まれる局所特徴量は、各画像から抽出されたSIFT特徴点のうち、すべての隣り合った画像間でマッチングがとれた特徴点であり、かつ、動的な特徴点が排除されたものとして抽出される。よって、主として静的ないしは実質的に静的な特徴点のみを抽出することができる。
実験によるICGM2.0の優位性の検証
実施例1:動的な特徴量の削除
ここでは、ICGM2.0の優位性の検証のために、動的な特徴量の削除の結果について評価する。実験環境は多くの人が行き交う環境を選んで行った。また、実験においては、PIRFの局所特徴量のマッチングに対する閾値ThrPIRFを65、ICGMの誤差率に関する閾値ThrICGMを0.7とした。ICGM2.0 についても、ThrPIRF=65、ThrICGM=0.7とした。
本実施例では、局所特徴量としてORB(E.Rublee, V.Rabaud, K.Konolige and G.Bradski, ”ORB: an efficient alternative to SIFT or SURF”, Proc. International Conference on Computer Vision, 2011)を使用した。ORBはSIFTやSURFと同様に回転・スケール変化、照明変化等に頑健な局所特徴量である点と計算速度が速い点、そしてマッチングの精度が高い点が特徴である。ORBによれば、SIFTの100倍、SURFの10倍の計算速度が実現される。さらに、マッチング精度についても、SIFTやSURFと同等以上である。
図6に、動的な環境下で撮影された画像に対し、従来手法(ORB(つまり、PIRF、ICGM、ICGM2.0のいずれも適用しない場合)、PIRF、ICGM)とICGM2.0とによる動的な特徴量を削除する処理を行った結果を示す。従来手法では動的な局所特徴量は削除されているものの、完全に除去することはできていない。一方で、ICGM2.0では、動的な局所特徴量がほとんど削除されている。
また、図6に示すように、ORBに比べて、ICGM、PIRF及びICGM2.0では、静的な特徴量も減少してしまっているように見える。この点に関しては、局所特徴量の中でも不安定な局所特徴量が削除されたものと考えられる。静的なものからの局所特徴量であっても、その中には前後の画像には存在していないものや、前後の画像上の全く別の特徴量とマッチングしてしまうようなものといった、不安定な局所特徴量も少なからず存在する。こうした不安定な局所特徴量は、SLAMを行う上で精度の低下の要因となり得る。しかし、ICGM、PIRF及びICGM2.0では、こういった局所特徴量も動的な特徴量と同様のアルゴリズムで削除することができる。そのため、ORBに比べて、ICGM、PIRF及びICGM2.0では、静的な特徴量も減少してしまっていると考えられる。
これにより、ICGM2.0は、従来手法に比べて、動的な局所特徴量を精度よく削除し、かつ、安定的かつ静的な局所特徴量を抽出できることが理解できる。
また、ICGM2.0の優位性の検証を更に行うために、ICGM2.0及び従来手法により抽出した局所特徴量を用いた地図構築(ビジュアルオドメトリ)の精度とLoop−Closing検出の際の自己位置推定の精度について評価する。
以下の実施例では、libviso2(A. Geiger, J. Ziegler, and C. Stiller, ”StereoScan: Dense 3D reconstruction in real-time”, IEEE Int. Veh. Symp., 2011)によってビジュアルオドメトリを生成している。
ビジュアルオドメトリの精度の評価方法としては、始点終点間の差であるビジュアルオドメトリの長さで割った誤差率を定義し評価する。この始点終点間の差は、ビジュアルオドメトリを作成する過程で蓄積された誤差だと考えられる。そのため、この誤差率は単位距離あたりに発生する平均的な誤差を表す。ビジュアルオドメトリの評価方法としてはGround Truthを用いたものも一般的だが、本研究の実験環境は地下も含み、Ground Truthが取得しにくい環境であるため、統一的にこの誤差率で評価を行う。
自己位置推定の精度の評価方法としては、表1に従って得られたTP、FP、TN及びFNを用いて、式(5)及び(6)から求められたPrecisionとRecallとを基に評価する。

Precision=TP/(TP+FP) ・・・(5)
Recall=TP/(TP+FN) ・・・(6)

Figure 2017145711
実験環境は多くの人が行き交う環境を選び、屋内、屋外に分けて行った。また、実験においては、実施例1と同様に、PIRFの特徴量のマッチングに対する閾値ThrPIRFを65、ICGMの誤差率に関する閾値ThrICGMを0.7とした。
実施例2:屋内における実験
実験環境は鉄道の駅の地下改札前の屋内環境であり、非常な混雑が生じ、かつ、多くの人が行き交う動的環境である。図7に、実験経路を示す。実験では、この実験経路に従って実験者がカメラで連続画像を撮影し、その連続画像をもとにビジュアルオドメトリの作成と自己位置推定とを行った。図7の例では、約100m×約50mの領域において、一周が約200mの経路を用いた。また、点線が地図構築を行った1周目の経路を示し、実線が自己位置推定を行った2周目の経路を示している。
屋内でのビジュアルオドメトリ
ビジュアルオドメトリに関するICGM2.0の優位性の評価を行うにあたり、比較対象を従来手法であるICGM、PIRF、及び、libviso2のみの場合(ICGM、PIRF、ICGM2.0のいずれも適用しない場合)とする。上述の通り、libviso2は本発明でも用いているが、libviso2によるビジュアルオドメトリの作成前にICGM2.0による動的な特徴量の削除が行われているので、ICGM2.0の有無によるビジュアルオドメトリの結果の変化を比較することで、その効果を把握することができる。
図8に、屋内での評価実験で作成されたビジュアルオドメトリを示す。また、表2に各手法の誤差率と1画像あたりの計算時間を示す。
Figure 2017145711
図8と表2とに示すように、ICGM2.0が最も始点と終点の誤差が小さく、誤差率も小さくなっている。
一方、libviso2はビジュアルオドメトリの形状が本来の実験経路と異なってしまっている。この原因として、歩行者からの動的な特徴量や不安定な特徴量による誤マッチングが起こってしまっていることが考え得る。逆に、ICGM2.0、ICGM、PIRFでは、こうした現象は生じていないが、これは動的な特徴量や不安的な特徴量の削除が行われているためだと考えられる。以上より、ビジュアルオドメトリを正確に作成する点において、ICGM2.0の優位性が示された。
図9に、Loop−Closingの有無によるビジュアルオドメトリの変化を示す。Loop−Closingを行う前は、同じ地点であるはずの始点と終点の間に差が存在しており、地図として矛盾が生じている。一方で、Loop−Closingを行った後はその矛盾が解消され、ループが閉じている。ループが閉じている地点も、本来同じ地点であるはずの始点と終点であるため、正しい位置でLoop−Closing検出が行われていると言える。これにより、ビジュアルオドメトリを作成する際に蓄積された誤差は軽減されていると考えられる。
屋内での自己位置推定
本実験においては、ICGM2.0の比較対象を、従来手法のICGM、PIRF、FABMAP2.0(M . Cummins, P. Newman, "Highly scalable appearance-only SLAM - FAB-MAP 2.0", The International Journal of Robotics, Systems and Science, 2009)とした。ICGMとPIRFとは、共に動的な特徴量を削除することを目的としている点で比較対象とする。また、FABMAP2.0は、現在のAppearance−only SLAMに関する研究の中でも高い精度の自己位置推定を実現している手法であるため、比較対象とした。図10に、表1と式(5)及び(6)から求められたPrecisionとRecallとを示す。また、表3に、Precisionを100%とするときのRecallと1画像あたりの計算時間とを示す。
Figure 2017145711
図10と表3とから、ICGM2.0において最も精度よく自己位置推定が行われていることがわかる。その理由として、他の従来手法に対してICGM2.0は、行き交う人や物などからの動的な特徴量(動的な局所特徴量)や不安定な特徴量(従来手法では静的な局所特徴量とされるものの、ICGM2.0においては上述のように不安定な局所特徴量とされたもの)を削除し、安定的かつ静的な特徴量を効率的に残すことが出来ているためであるという点が考えられる。このことは、図7からも言える。よって自己位置推定に対するICGM2.0の優位性が示された。
実施例3:屋外での実験
実験環境は鉄道の駅前の屋外環境である。実験環境は非常に混雑し、多くの人が行き交う動的環境である。図11に実験経路を示す。実験ではこの実験経路に従って実験者がカメラで連続画像を撮影し、その連続画像をもとにビジュアルオドメトリの作成と自己位置推定を行った。図11の例では、約80m×約100mの領域において、一周が約230mの経路を用いた。また、赤色鎖線が地図構築を行った1周目の経路を示し、青色点線が自己位置推定を行った2周目の経路を示している。
屋外でのビジュアルオドメトリ
ビジュアルオドメトリに関するICGM2.0の優位性の評価を行う。比較対象は屋内での評価実験と同様に、従来手法のICGM、PIRF、libviso2とする。図12に実験で作成されたビジュアルオドメトリを示す。また、表4に、各手法の誤差率と1画像あたりの計算時間を示す。
Figure 2017145711
図12と表4とから、屋内での評価実験と同様、ICGM2.0が最も始点と終点の誤差が小さく、誤差率も小さくなっている。このことから、屋外屋内問わずICGM2.0は従来手法に対してビジュアルオドメトリに関して優位性があると言える。
また、図13にLoop−Closingの有無によるビジュアルオドメトリの変化を示す。こちらの結果もLoop−Closing検出は正しい位置で行われた結果、始点と終点との間に生じていた誤差は解消され、ループが閉じている。このことから屋外の環境でも正しい位置でLoop−Closing検出が行われていることが確認できた。
これにより、ビジュアルオドメトリを作成する際に蓄積された誤差は軽減されていると考えられる。
屋外での自己位置推定
自己位置推定に関するICGM2.0の優位性の評価を行う。比較対象は、屋内での評価実験と同様に従来手法のICGM、PIRF、FABMAP2.0とする。図14に、表1と式(5)及び(6)から求められたPrecisionとRecallとを示す。また、表5にPrecisionを100%とするときのRecallと画像あたりの計算時間を示す。
Figure 2017145711
図14と表5とからICGM2.0が最も精度よく自己位置推定が行われていると言える。このことからICGM2.0は、行き交う人や物などからの動的な特徴量や不安定な特徴量を削除し、静的で安定な特徴量を効率的に残すことが出来ていると考えられる。よって屋外の環境でも自己位置推定に対するICGM2.0の優位性が示された。
以上で説明したように、本研究では、多くの人や物が行き交う動的な環境でも精度よくSLAMを行うことを目的とした。そこでICGM2.0を用いた動的な特徴量を削除するSLAM手法を構築し、動的な環境下でその評価を行った。そして、動的な特徴量の削除、ビジュアルオドメトリを作成した際の精度、自己位置推定の精度の点で、屋内屋外問わず従来手法に対しICGM2.0の優位性を確認した。
上記のSLAMについて、本研究では外界センサに単眼カメラのみを用いて実現した.単眼カメラという小型で軽量な外界センサのみを用いたSLAMは、スマートフォンやウェアラブル端末が普及する現在、応用先が数多く存在する。その中で精度の高い本研究は、我々が生活する実環境にSLAMの技術が人やロボットのナビゲーションへ応用される中で、大きな貢献ができると考えられる。
実施の形態2
本実施の形態にかかる特徴量抽出方法及び特徴量抽出装置は、実施の形態1にかかる特徴量抽出方法及び特徴量抽出装置の変形例であり、静的な特徴量の抽出精度を更に向上させるものである。実施の形態2にかかる特徴量抽出方法については、ここでは、ICGM2.5とも称する。
静的な特徴量を抽出する(図2のステップS4に対応)にあたり、実施の形態1(ICGM2.0)では、抽出した特徴量にPIRFを適用することで、動的な特徴量を削除している。そして、PIRF処理後の特徴量から、ランダムに重心計算に用いる特徴量を選択し、選択した特徴量を静的な特徴量とみなしている。しかし、選択した特徴量が真に静的な特徴量であることは保証されていないので、PIRFをすり抜けた動的な特徴量を選択してしまうと、ICGMでの重心位置の計算精度が悪化する。その結果、ICGMでの動的な特徴量削除の精度が悪化し、更には静的な特徴量を不必要に削除してしまう事態も生じ得る。
これに対し、本実施の形態にかかるICGM2.5では、PIRFの後に、動的な特徴量をマッチング距離に基づいて更に削除するという処理を更に行い、静的な特徴量の抽出精度を更に向上させることができる。以下、具体的に説明する。
図15は、実施の形態2にかかる静的な特徴量の抽出方法を示す図である。図15で示す一連の処理は、図2のステップS4で行われる処理に対応するものである。
ステップS21
まず、図2のステップS3でマッチングされた特徴量から、上述したPIRFにより、動的な特徴量を削除する。
ステップS22
PIRFによって動的な特徴量を削除した後、残存している特徴量のそれぞれについて、連続画像の異なるフレーム間でのマッチング距離を算出する。そして、各特徴量のマッチング距離を計算し、マッチング距離の昇順に特徴量を並べ替える。
ここでいうマッチング距離とは、マッチングした2つの特徴量の類似度を示す指標であり、各特徴量の記述子から得ることができる。本実施の形態で局所特徴量として用いているORBは、特徴記述手法としてBRIEF(Binary Robust Independent Elementary Features)に回転不変性を加えたものを用いている。ORB及びBRIEFについては、例えば、E.Rublee, V.Rabaud, K.Konolige, G.Bradski,“ORB: an efficient alternative to SIFT or SURF”,International Conference on Computer Vision(ICCV), Nov, 2011.、及び、M. Calonder, V. Lepetit, C. Strecha, and P. Fua.,“Brief: Binary robust independent elementary features”,European Conference on Computer Vision,2010. 1, 2, 3, 5に記載されている。本実施の形態でいうマッチング距離とは、バイナリコードで表されるORB特徴記述子のハミング距離である。
ステップS23
並べ替えた後の特徴量のうち、マッチング距離が小さい順に特徴量を所定の個数だけ選択する。
ステップS24
選択した特徴量を静的な特徴量であると仮定し、これを用いてICGMの重心計算を行う。また、実施の形態1で説明したICGMでの処理と同様に、動的な特徴量を削除する。
なお、図16に、実施の形態2にかかる静的な特徴量を抽出するICGM2.5のアルゴリズムを示す。また、参考として、図17にPIRFのアルゴリズムを示す。
以上、実施の形態2にかかる本構成及び手法によれば、PIRFを行った後に、マッチング距離が小さな特徴量を選択して、選択した特徴量を重心計算に用いるICGMを適用する。これにより、PIRFをすり抜けた動的な特徴量が存在する場合でも、マッチング距離を用いて更に動的な特徴量が選別、排除されるので、ICGMでの重心計算の際に動的な特徴量が紛れ込むおそれを低減することができる。その結果、実施の形態1(ICGM2.0)と比較して、より高い精度で静的な特徴量を抽出することができる。
次いで、以下では、ICGM2.5の優位性について、実験により検証する。
実験によるICGM2.5の優位性の検証
実施例4:動的な特徴量の削除
ここでは、ICGM2.5の優位性の検証のために、動的な特徴量の削除の結果について評価する。実施の形態1と同様に、実験環境は多くの人が行き交う環境を選んで行った。本実験で撮影に用いる機器は手持ちの単眼カメラであり、その解像度は1280×960ピクセル、連続画像のフレームレートは12fpsである。また、ICGMの誤差率に関する閾値ThrICGMを0.7、計算した重心の妥当さを測る閾値ThrCGを0.7とした。PIRFにより参照するフレーム数は、w=3である。単眼カメラの高さは地面から1.6m、ピッチ角は5.3°に設定される。また、マッチング距離を算出する際の特徴量のピクセルパッチサイズは31である。なお、計算環境を表6に示す。
Figure 2017145711
図18に、動的な環境下で撮影された画像に対し、従来手法(ORB(つまり、PIRF、ICGM、ICGM2.0、ICGM2.5のいずれも適用しない場合)、ICGM、ICGM2.0及びICGM2.5を適用にて動的な特徴量を削除する処理を行った結果を示す。図18に示すように、本実施の形態にかかるICGM2.5によれば、ICGM及びICGM2.0と比較して、より動的な特徴量が削除されていることが理解できる。これにより、ICGM2.5は、従来手法、ICGM及びICGM2.0と比べて、動的な局所特徴量を精度よく削除し、かつ、より安定的かつ静的な局所特徴量を抽出できることが理解できる。
また、ICGM2.5の優位性の検証を更に行うために、実施の形態1と同様に、ICGM2.5及び他の手法により抽出した局所特徴量を用いた地図構築(ビジュアルオドメトリ)の精度について評価する。
実施例5:屋内における実験
実験環境は鉄道の駅の地下改札前の屋内環境であり、実施の形態1と同様である。また、計算条件についは、実施例4と同様である。図19に、屋内での実験環境の画像と、その画像にICGM2.5を適用して特徴量の抽出を行った結果を示す。図19に示すとおり、通行人などの動く物体上にはほとんど特徴点は設定されておらず、高い精度で動的な特徴量が削除されていることがわかる。
次いで、屋内の所定の経路を1周してビジュアルオドメトリを作成する実験について説明する。図20に、屋内での実験経路を示す。実験経路は、実施の形態1で説明した実施例2と同様であり、点の位置を始点及び終点として経路を反時計周りに周回する経路(図21の破線)でのビジュアルオドメトリを作成する。
屋内でのビジュアルオドメトリ
ビジュアルオドメトリに関するICGM2.5の優位性の評価を行うにあたり、比較対象を、ICGM、ICGM2.0、PIRF、及び、libviso2のみの場合(ICGM、PIRF、ICGM2.0及びICGM2.5のいずれも適用しない場合)とする。
図21に、屋内での評価実験で作成されたビジュアルオドメトリを示す。また、表7に各手法の誤差率と1画像あたりの計算時間を示す。
Figure 2017145711
なお、図21では、簡略化のため、実施の形態1にかかるICGM2.0を適用したビジュアルオドメトリ及び実施の形態2にかかるICGM2.5を適用したビジュアルオドメトリのみを表示している。
図21に示すように、ICGM2.5は、ICGM2.0と比べて始点と終点の誤差が小さく、更に精度が向上していることがわかる。また、表7に示すように、ICGM2.5は、他の手法と比べて誤差率が大幅に小さくなっており、ICGM2.5の高い優位性が現れている。
図22に、Loop−Closingの有無によるビジュアルオドメトリの変化を示す。本実施の形態にかかるICGM2.5では、Loop−Closingを行う前(図21)でも、始点と終点は近傍に位置しており、かつ、Loop−Closingを行ってもその大部分が重なっており、正確なビジュアルオドメトリを作成できていることが確認できる。これにより、ビジュアルオドメトリを作成する際に蓄積された誤差は、より一層軽減されていると考えられる。
実施例6:屋外での実験
実験環境は鉄道の駅前の屋外環境である。計算条件については、実施例4及び5と同様である。図23に、屋外での実験環境の画像と、その画像にICGM2.5を適用して特徴量の抽出を行った結果を示す。図23に示すとおり、通行人などの動く物体上にはほとんど特徴点は設定されておらず、高い精度で動的な特徴量が削除されていることがわかる。
図24に、屋外での実験経路を示す。実験経路は、実施の形態1で説明した実施例6と同様であり、点の位置を始点及び終点として経路を時計周りに周回する経路(図24の破線)でのビジュアルオドメトリを作成する。
屋外でのビジュアルオドメトリ
ビジュアルオドメトリに関するICGM2.5の優位性の評価を行う。比較対象は屋内での評価実験と同様に、ICGM、ICGM2.0、PIRF及びlibviso2とする。図25に、屋外での評価実験で作成されたビジュアルオドメトリを示す。また、表8に、各手法の誤差率と1画像あたりの計算時間を示す。
Figure 2017145711
なお、図25では、簡略化のため、実施の形態1にかかるICGM2.0を適用したビジュアルオドメトリ及び実施の形態2にかかるICGM2.5を適用したビジュアルオドメトリのみを表示している。
図25に示すように、ICGM2.5は、ICGM2.0と比べて始点と終点の誤差が小さく、更に精度が向上していることがわかる。また、表8に示すように、ICGM2.5は、他の手法と比べて誤差率が大幅に小さくなっており、ICGM2.5の高い優位性が現れている。
また、図26に、Loop−Closingの有無によるビジュアルオドメトリの変化を示す。実験環境が屋外であるため、動的な物体が多いこと、光量の変化などの要因が屋内よりも多いため、Loop−Closingを行う前の始点と終点とは離れている。しかし、Loop−Closingを行うことで、始点と終点とを一致させることができている。よって、ICGM2.5ではLoop−Closingにより解消できる程度の誤差しか生じていないことが確認できる。
その他の実施の形態
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は既に述べた実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることはいうまでもない。
この出願は、2016年2月24日に出願された日本出願特願2016−33208及び2016年4月20日に出願された日本出願特願2016−84534 を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 特徴量抽出装置
11 連続画像取得部
12 局所特徴量抽出部
13 特徴量マッチング部
14 不変特徴量算出部

Claims (5)

  1. 連続して撮影した連続画像を取得する連続画像取得工程と、
    前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、
    前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
    前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める不変特徴量算出工程と、を有する、
    特徴量抽出方法。
  2. 前記不変特徴量算出工程において、
    前記マッチングが取れた局所特徴量のそれぞれについてマッチング距離を算出し、
    前記マッチングが取れた局所特徴量を、算出したマッチング距離に基づいて並べ替え、
    前記マッチング距離が小さい順に、前記マッチングが取れた局所特徴量から所定の個数の局所特徴量を選択し、
    選択した局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める、
    請求項1に記載の特徴量抽出方法。
  3. 前記連続画像の第1のフレームにおいて、前記マッチングが取れた局所特徴量から選択したものの重心位置を計算し、かつ、前記マッチングが取れた局所特徴量から選択したもののそれぞれと、前記重心位置と、を結ぶベクトルを求め、
    前記第1のフレームに対して時間的に前又は後の前記連続画像の第2のフレームにおいて、前記マッチングが取れた局所特徴量から選択したものの重心位置を計算し、かつ、前記マッチングが取れた局所特徴量から選択したもののそれぞれと、前記重心位置と、を結ぶベクトルを求め、
    前記マッチングが取れた局所特徴量のそれぞれについて、前記第1のフレームにおいて求めた前記ベクトルと、前記第2のフレームにおいて求めた前記ベクトルと、の間の誤差が所定の閾値以下である場合に、対応する局所特徴量の平均を前記不変特徴量として求める、
    請求項1又は2に記載の特徴量抽出方法。
  4. 前記マッチングが取れた局所特徴量のそれぞれについて前記第1のフレームにおいて求めた前記ベクトルをCGVT、前記マッチングが取れた局所特徴量のそれぞれについて前記第2のフレームにおいて求めた前記ベクトルをCGVT−1としたときに、
    前記誤差であるRoDは、以下の式で求められる、
    請求項3に記載の特徴量抽出方法。
    Figure 2017145711
  5. 連続して撮影した連続画像を取得する連続画像取得手段と、
    前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量のうち、前記連続画像間における位置の変化が所定のしきい値以下である局所特徴量の平均を、不変特徴量として求める不変特徴量算出手段と、を有する、
    特徴量抽出装置。
JP2018501110A 2016-02-24 2017-02-03 特徴量抽出方法及び特徴量抽出装置 Expired - Fee Related JP6515259B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016033208 2016-02-24
JP2016033208 2016-02-24
JP2016084534 2016-04-20
JP2016084534 2016-04-20
PCT/JP2017/004054 WO2017145711A1 (ja) 2016-02-24 2017-02-03 特徴量抽出方法及び特徴量抽出装置

Publications (2)

Publication Number Publication Date
JPWO2017145711A1 true JPWO2017145711A1 (ja) 2018-04-05
JP6515259B2 JP6515259B2 (ja) 2019-05-22

Family

ID=59685038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018501110A Expired - Fee Related JP6515259B2 (ja) 2016-02-24 2017-02-03 特徴量抽出方法及び特徴量抽出装置

Country Status (3)

Country Link
US (1) US10366305B2 (ja)
JP (1) JP6515259B2 (ja)
WO (1) WO2017145711A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6931138B1 (ja) 2018-06-27 2021-09-01 ナイアンティック, インコーポレイテッドNiantic,Inc. デバイスローカリゼーションのためのマルチシンクアンサンブルモデル
WO2020010620A1 (zh) * 2018-07-13 2020-01-16 深圳市大疆创新科技有限公司 波浪识别方法、装置、计算机可读存储介质和无人飞行器
CN110728710B (zh) * 2018-07-16 2023-10-27 株式会社理光 视觉里程计算方法、装置和计算机可读存储介质
CN110060277A (zh) * 2019-04-30 2019-07-26 哈尔滨理工大学 一种多特征融合的视觉slam方法
US11899469B2 (en) 2021-08-24 2024-02-13 Honeywell International Inc. Method and system of integrity monitoring for visual odometry
CN115624755B (zh) * 2022-12-08 2023-03-14 腾讯科技(深圳)有限公司 一种数据处理方法、装置及计算机设备、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
WO2014073204A1 (ja) * 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5305031B2 (ja) 2009-08-31 2013-10-02 トヨタ自動車株式会社 特徴量抽出装置及び方法、並びに位置推定装置及び方法
JP5557189B2 (ja) 2010-03-31 2014-07-23 トヨタ自動車株式会社 位置推定装置、位置推定方法及びプログラム
JPWO2011145239A1 (ja) 2010-05-19 2013-07-22 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
WO2014073204A1 (ja) * 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
萱沼 徹: "人混みで手持ちの単眼カメラにより撮影した映像からの自律的地図構築と自己位置推定", 電子情報通信学会技術研究報告 マルチメディア・仮想環境基礎, vol. 114, no. 410, JPN6018046426, 15 January 2015 (2015-01-15), JP, pages 265 - 270, ISSN: 0003926920 *

Also Published As

Publication number Publication date
US10366305B2 (en) 2019-07-30
JP6515259B2 (ja) 2019-05-22
WO2017145711A1 (ja) 2017-08-31
US20180173991A1 (en) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6515259B2 (ja) 特徴量抽出方法及び特徴量抽出装置
Portmann et al. People detection and tracking from aerial thermal views
Migdal et al. Background subtraction using markov thresholds
JP6265499B2 (ja) 特徴量抽出装置及び場所推定装置
CN105930790A (zh) 基于核稀疏编码的人体行为识别方法
Saif et al. Moving object detection using dynamic motion modelling from UAV aerial images
JP6280020B2 (ja) 移動物体追跡装置
JPWO2011145239A1 (ja) 位置推定装置、位置推定方法及びプログラム
Saito et al. People detection and tracking from fish-eye image based on probabilistic appearance model
JP5557189B2 (ja) 位置推定装置、位置推定方法及びプログラム
Raza et al. Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera
Joshi et al. Object detection, classification and tracking methods for video surveillance: A review
Bashar et al. Multiple object tracking in recent times: A literature review
Wang et al. Robust UAV-based tracking using hybrid classifiers
Qian et al. 3D object recognition by geometric context and Gaussian-mixture-model-based plane classification
Hwang et al. A novel part-based approach to mean-shift algorithm for visual tracking
JP2002133421A (ja) 移動物体認識方法及び装置
KR102424326B1 (ko) 주목도 기반 객체 분할을 이용한 비지도 비디오 객체 분할장치 및 방법
Yu Moving target tracking based on improved Meanshift and Kalman filter algorithm
Mou et al. Efficient visual odometry estimation using stereo camera
JP2017016356A (ja) 画像処理装置、画像処理方法及びプログラム
Alpatov et al. Object tracking in the video sequence based on the automatic selection of the appropriate coordinate estimation method
JP2023008030A (ja) 画像処理システム、画像処理方法及び画像処理プログラム
Wang et al. Robust visual tracking via discriminative structural sparse feature
US20220245855A1 (en) Trajectory linking apparatus, trajectory linking method, and non-transitory computer readable medium storing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190220

R150 Certificate of patent or registration of utility model

Ref document number: 6515259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees