JP5818327B2 - 三次元物体認識用画像データベースの作成方法および作成装置 - Google Patents
三次元物体認識用画像データベースの作成方法および作成装置 Download PDFInfo
- Publication number
- JP5818327B2 JP5818327B2 JP2012512888A JP2012512888A JP5818327B2 JP 5818327 B2 JP5818327 B2 JP 5818327B2 JP 2012512888 A JP2012512888 A JP 2012512888A JP 2012512888 A JP2012512888 A JP 2012512888A JP 5818327 B2 JP5818327 B2 JP 5818327B2
- Authority
- JP
- Japan
- Prior art keywords
- subspace
- query
- recognition
- database
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Description
コンピュータ処理によって三次元物体を認識する手法として、物体の幾何形状を用いて認識する手法がある(例えば、非特許文献1、2参照)。また、物体を撮影した平面画像を利用して認識する手法がある(例えば、非特許文献3、4参照)。この発明では、前述の手法のうち、後者、即ち、平面画像を利用して三次元物体を認識する手法に焦点を当てる。
前記方法と実質的に対応する、この発明の三次元物体認識用画像データベースの作成装置についても、同様の作用効果を奏する。
この発明による三次元物体認識用画像データベースの作成方法において、前記登録工程は、前記物体の識別子および前記一連の視点を表す視点データの組み合わせを各部分空間に関連づけて登録し、前記認識処理は、各部分空間に関連づけられた前記組み合わせについて集計処理を行い、前記検索質問に最も類似する物体および最も類似する視点を得る工程であってもよい。
このようにすれば、物体IDおよび視点データの組み合わせについての集計処理を各クエリ特徴ベクトルについて行うので、メモリ容量削減の代償として生じる認識率の低下を、各特徴ベクトルをそのまま登録するときと比べて遜色のない程度に抑制できる。
後述する効果検証の実験によれば、各特徴ベクトルをそのまま登録する無削減状態に対して98.9%の認識率を維持する一方、メモリ容量は無削減状態の約1/18にすることができた。
また、このようにすれば、質問画像の物体の種類を認識するだけでなく、検索質問のおおよその視点を推定することができる。
前記部分空間生成工程は、各対のうち、最も近い距離の対と2番目に近い距離の対との相違が前記基準を超えるものをノイズとして除外してもよい。
このようにすれば、各部分空間の第一主成分のみを用いる場合に比べて高い認識率を見込むことができる。一方、各部分空間の各基底に各特徴ベクトルを射影して類似度を求める場合に比べて、類似度計算の対象(候補)を絞り込むので、処理時間を削減することができる。
前記部分空間生成工程は、CLAFIC法を適用して特徴ベクトルを集合としてまとめ、部分空間を生成してもよい。
ここで示した種々の好ましい態様は、それら複数を組み合わせることもできる。
≪関連技術の説明≫
発明をよりよく理解できるようにするため、まず、この発明の基礎となる技術について簡単に説明する。
画像から得ることができる特徴量には、大きく分けて大域特徴量と局所特徴量の2つがある。前者は、画像の画素値などを用いて1枚の画像全体を特徴量とするもので、比較的容易に得ることができる。しかし、質問画像に物体の一部しか写っていない場合や一部が隠れている場合など、データベースの画像と質問画像の画素値が全く異なると、特徴量の値も大きく変動するという問題が生じ、物体の認識が困難になる。一方、後者の局所特徴量は画像から特徴的な局所領域を取り出し、その局所領域をベクトルで記述したものである。このように局所特徴量はベクトルとして記述されるので、特徴ベクトルともいう。1枚の画像の様々な個所から計数百個から数千個ほど得られるため、大域特徴量がもつ問題に対処する方法として、有効であることが知られている。
Loweらによって提案されたSIFT特徴量は、画像内の輝度の勾配を利用することで局所領域を取得し、その座標、方向、大きさなどを特徴ベクトルで表したものである。SIFT特徴量は、128次元のベクトルで表され、相似変換や回転などの変換に対して頑健である。
図1は、従来の局所特徴量であるSIFT特徴量をある物体について異なる二つの視点から見た画像データからそれぞれ抽出した様子を示す説明図である。図1(a)と(b)は、同一の物体を異なる撮影角度で撮影したものである。図中に白い矢印で表したものが、SIFT特徴量である。図2は、従来の局所特徴量であるSIFT特徴量を図1と異なる物体について異なる二つの視点から見た画像データからそれぞれ抽出した様子を示す説明図である。
三次元物体の物体認識手法について簡単に説明する。まず、データベースへの登録について述べる。データベースに登録したい物体を様々な視点(撮影角度)から撮影した画像がユーザーによって用意されているとする。登録処理として、コンピュータは、登録すべき物体が撮影された各画像からSIFT特徴量を抽出する。抽出されたSIFT特徴量を、前記物体に固有の識別子(物体ID)とともにデータベースに登録する。物体IDは、データベースに登録された各物体を識別するためのものである。
CLAFIC法(CLAss-Featuring Information Compression)は、1969年にWatanabeが提案した部分空間法の一種であり、クラスごとにKL展開(Karhunen-Loeve展開の略であり、ベクトルの分布を最もよく近似する部分空間を求める手法)により作成した部分空間を用いてクラス分類を行う手法である。この発明では、ある物体について異なる撮影角度の複数の画像から抽出される同一部分の局所特徴量を、CLAFIC法を用いて同一クラスにまとめることを考える。局所特徴量のクラスタリングである。
一般に、CLAFIC法により部分空間を作成するにはまず、クラスごとに多数のサンプルベクトルxを用意し、それらの自己相関行列Qを以下の式、
三次元物体の認識手法で述べたように、SIFT特徴量を用いた物体認識の従来手法によれば、高精度な認識結果を得るために、様々な視点(撮影角度)から撮影した画像から得た局所特徴量(特徴ベクトル)をそのままデータベースに登録する。そのため、メモリ容量が莫大なものになってしまう。そこでこの発明では、一連の視点の画像データから得られる同一部分の局所特徴量を、部分空間を用いて一つにまとめ、まとめられたものをデータベースに登録することによってメモリ容量を削減することを考える。また、部分空間に撮影角度の情報を対応づけておくことで、物体認識と併せて検索質問のおおよその撮影角度を得る。
局所特徴量の格納に要するメモリ容量が莫大になるという問題の解決策として、データベースに登録する局所特徴量の数の削減を考える。しかし、局所特徴量を無作為に削減すると、認識率が大きく低下するおそれがある。そこで、同一の物体を示しかつ撮影角度が連続して変化する複数の画像データから抽出される、ある程度一貫性のある局所領域に注目し、そのような局所領域から得られる局所特徴量のみを物体認識に用いることを考える。なぜなら、撮影角度の変化に対してある程度一貫した局所特徴量が得られなければ、その局所特徴量は撮影角度の変化によって生じたノイズの可能性が高いからである。撮影角度が連続して変化する複数の画像データにおいて、物体の同じ部分から得られた局所特徴量は少しずつ変化する。そのような局所特徴量の変化を近似的に精度よく記述することができる部分空間を作成することで、複数の局所特徴量を一つにまとめて表現するのである。
図3は、この発明に係るトレース処理の様子を模式的に表す説明図である。「1フレーム目」、「2フレーム目」等の矩形枠は異なる視点から物体を撮影した各画像を示す。a,bおよびcは前記物体の同一箇所を表す特徴ベクトルが異なる撮影角度(視点)の画像に連続して出現する軌跡を表す。例えば、特徴ベクトル集合aは1フレーム目に属する特徴ベクトルα1から2フレーム目に属する特徴ベクトルα2に対応づき、2フレーム目の特徴ベクトルα2は3フレーム目のどの特徴ベクトルにも対応づかなかったことを表している。また、特徴ベクトル集合bは1フレーム目から5フレーム目までの各視点に特徴ベクトルが連続して対応づいた様子を表している。特徴ベクトル集合cは、3フレーム目から5フレーム目までの各視点に特徴ベクトルが連続して対応づいた様子を表している。
この発明に係る登録処理においてコンピュータは、トレース処理によって得られた局所特徴量の集合を、その集合の部分空間を作成することで一つにまとめる。そして、その部分空間を物体IDとともに登録する。このとき、図3の軌跡aのように、軌跡が短い局所特徴量の集合からも部分空間を作成しデータベースに登録すると、登録する部分空間の数が多くなり、メモリ容量の削減があまりなされない。そこで、軌跡の長さに閾値を設け、ある程度以上連続して対応づけられた局所特徴量の集合のみから部分空間を作成し、データベースに登録する。これは、局所特徴量の軌跡が短いものは、軌跡が長いものに比べて、識別できる撮影範囲が少ないためである。
この発明に係る認識処理において、コンピュータは、検索質問の画像が与えられたとき、その検索質問画像から局所特徴量を抽出し、各局所特徴量をデータベース中の各部分空間に射影し、局所特徴量と部分空間の類似度を計算する。そして最も類似度の高い部分空間を求め、その部分空間をもつ物体IDに投票処理を行う。これをすべての局所特徴量において行う。最終的に、最多得票数を得た物体IDを物体認識の結果として出力する。この際、物体によって部分空間の数が異なるため、得票数を部分空間の数で正規化する。正規化を行わなければ、部分空間の数が多い物体IDに多数の得票が集まってしまい、誤認識を起こす可能性がある。物体のある撮影角度ωを識別することができる部分空間の数をNωとし、撮影角度ωの得票数をGωとすると、
図13は、この発明に係る三次元物体認識の処理の流れを示す説明図である。図13に示すように、三次元物体認識の処理は、登録処理と認識処理に大別される。登録処理は、認識に用いる三次元物体の画像のデータベースを作成する処理である。認識処理は、検索質問として三次元物体の画像が与えられたとき、その画像に示された物体の画像を前記データベースの中から検索し、物体を特定する処理である。
登録処理は、同一の物体を異なる視点から撮影した複数の画像が入力になる。登録処理を行うコンピュータは、前記入力が与えられると、各画像から局所特徴量を抽出する(ステップS1)。そして、異なる視点の画像に連続して含まれる同一箇所の局所特徴量を距離計算を用いて求め、それらの局所特徴量を一つにまとめる部分空間を作成する(ステップS3)。そして、生成された部分空間に前記物体の識別子と視点の撮影角度の範囲を付加し、データベースに登録する(ステップS5)。
なお、認識処理についても、検索質問から局所特徴量を抽出する機能を担う部分、抽出された各局所特徴量に最も類似する部分空間を検索し、その部分空間に付加された物体IDを多数決処理して一つの物体IDを決定する機能を担う部分、決定された物体IDを出力する機能を担う部分を備える装置として捉えることができる。
以上に述べた手法では、複数フレームに渡って同一の局所領域から得られた特徴量の集合から、KL 展開を用いて部分空間を作成し、複数の局所特徴量を一つにまとめて表現する。そうすることで、データベースに登録する特徴量を大幅に減らすことができ、メモリ容量を削減することができる。
各クラスに対応するk次元の部分空間との類似度を計算する前述の手法では、認識を行う際に、局所特徴量としての各クエリ特徴ベクトルをデータベース中の各クラスに対応する部分空間のそれぞれの基底に射影し、類似度を求めなければならない。そのためデータベースに登録する物体の増加に伴って、処理時間が大きくなる。この実施形態では、近似的に類似度の高い部分空間を探索する手法を採用し処理時間を削減する。
k次元の部分空間への射影による認識処理では、各クエリ特徴ベクトルをデータベース中の各部分空間の各基底に射影し、最も類似度の高い部分空間を見つけるため、処理時間がかかるという問題が生じる。そこで、この実施形態では、最も類似度の高い部分空間を、クエリから得られた局所特徴量と部分空間の第一主成分上の点との距離計算によって求める方法を提案する。距離計算によって、最も類似度の高い部分空間を求めることができれば、既に提案されている様々な近似最近傍探索の手法により、高速化することができる。
近似最近傍探索の手法の一つとして、ANN と呼ばれる手法が提案されている。この手法は、木構造(kd-tree)をベースにしたもので、処理ソフトウェアが利用可能なため容易にANNの処理を試すことができる。ANN での処理の概要を以下に示す。
前述のように、部分空間の第一主成分のみを用いて距離計算を行う手法により、k次元の部分空間に対する類似度を求める手法に比べて認識に要する処理時間を削減することができる。しかし、部分空間の複数の軸を用いたほうが、より高い認識率を見込むことができる。
そこで、別の実施形態として、2段階の処理を採用して認識を行う態様を挙げることができる。この実施形態では、まず1段階目として、部分空間の第一主成分のみを用いて、近似最近傍探索により高速に最も類似度の高い部分空間となるであろう候補を絞り込む。そして2段階目に、その候補に挙げられた各部分空間の複数の軸を用いて高次元に射影し、真に最も類似度の高い部分空間を求める。2段階目の処理を加えることによって、各部分空間の第一主成分のみを用いる場合に比べて高い認識率を見込むことができる。一方、2段階目のみの態様、即ち、各部分空間の各基底に各特徴ベクトルを射影して類似度を求める場合に比べて、類似度計算の対象(候補)を絞り込むので、処理時間を削減することができる。
この実施形態は、検索質問に動画もしくは連続撮影した複数の画像を用いる場合に有効である。この態様によれば、データベースを作成する際と同様に、検索質問に係る複数画像に対してもトレース処理を行う。トレース処理によって得られた局所特徴量の集合から部分空間を作成する。そうすることで、データベースの部分空間と質問画像から得た部分空間とを比較することができる。検索質問から得られた部分空間を、この明細書ではクエリ部分空間と呼ぶ。部分空間同士を比較し最適な部分空間を見つけるには、一般的にそれらの正準角を用いる。しかし、その手法では高速化が望めない。そこで、ここでも距離計算によって最適な部分空間を求める。既に述べたANNの距離計算と同様、各部分空間の軸上に、原点から等距離の点を置き、その点と点との距離計算を行う。この実施形態ではクエリも部分空間であるから、そのクエリ部分空間の座標軸上にも点を置く必要がある点に留意すべきである。以下、さらに詳細な説明を述べる。
局所特徴量を用いた物体認識の基本的な従来手法と、複数の局所特徴量を部分空間で表現するこの発明の手法との比較実験を行った。比較の指標はメモリ容量と認識率である。
本実験で用いたデータセットについて説明する。本実験では、55個の三次元物体をターンテーブルで一回転させ、動画を撮影した。
図5は、この発明に係る実験に使用した物体のいくつかの例を示す説明図である。そして、撮影された動画を構成する各フレーム画像を取得し、そのフレーム画像の中からデータベースに登録する登録用画像と検索質問画像を作成した。登録用画像は、各物体につき撮影角度を約1度ごとに変化させた360枚の画像を作成した。また、質問画像は、各物体につき約36度ごとに変化させた10枚の画像を作成した。ここで、登録用画像と質問画像は、異なる画像とした。つまり、検索質問画像と完全に同一の登録用画像は存在しない。データベースを作成するために、登録用画像からSIFT特徴量を抽出した。1枚の登録用画像から100〜400個ほどの局所特徴量をそれぞれ得た。仮に1枚あたり300個の局所特徴量が得られたとすると、1つの物体の局所特徴量は300個×360枚=108,000個であり、55個の物体に係る局所特徴量の総数はその55倍の5,940,000個である。検索質問は、全部で10枚×55個=550枚である。1枚の画像につきそれぞれ物体認識を行うので、最大550通りの物体認識が行われる。図6の縦軸の認識率はそれらの平均である。
まず、この発明の認識処理において、投票を行う際、図4(b)のように物体に加えその撮影角度を考慮して投票を行うことが、どのくらい認識率に影響を及ぼしているかを調べる第1の実験を行った。
図6は、この発明に係る第1の実験結果を示すグラフである。横軸は用いた部分空間の次元数を、縦軸は認識率を表している。実験結果より、物体IDごとに投票を行う態様であっても、95%を超える認識率が得られ、部分空間の次元数が三次元のときに98.3%となった。物体の撮影角度ごとに投票を行うと誤投票が分散され、部分空間の次元に関係なく認識率がさらに向上した。単なる物体IDでなく、物体IDと撮影角度との組み合わせに投票を行った場合、部分空間の次元数が三次元のときに98.9%となった。意外にも、次元数をそれ以上増やしても98.9%以上の認識率を得ることはなかった。この理由としては、部分空間の次元数を増やすと、部分空間と部分空間の間で重なりが増加し、部分空間の識別性が低下するためではないかと考えられる。つまり、求めたい部分空間との類似度だけが高くなるだけでなく、他の部分空間との類似度も高くなる可能性があるのである。
図8は、図7の物体Aに対して物体IDのみに投票を行った結果を示すグラフである。
また、図9は、図7の物体Aに対して物体IDと撮影角度との組み合わせに投票を行うことで正しく認識されるようになった例を示す説明図である。図7の質問画像は、物体Aをある撮影角度で撮影したものである。図8に、各物体IDに投票を行い得票数を正規化して得られるスコアを示す。本来ならば物体Aのスコアが最も高くなるべきであるが、他の物体Bや物体Cのスコアのほうが高くなった。そのため、物体ごとに投票を行った場合、質問画像は物体Cと認識された。
図11は、この発明の実験に用いた物体Dを示す説明図である。図12は、図11に示す物体Dを質問画像としたときの、物体Dと物体Eの各撮影角度のスコアを表したものである。本来ならば、物体Dの最もスコアが高い132度から144度が認識結果として得られることが望ましい。しかし、物体Eのスコアのように、得票数がある程度分散しているにも関わらず、スコアが高い場合は誤認識となってしまう。
1002 個の物体の認識実験に対して、(1)ANN を用いることの有効性と(2)相互部分空間法による認識率の向上を確かめることを目的としてそれぞれ実験を行った。第1の実験では局所特徴量と部分空間の比較により物体を認識した。第2の実験では相互部分空間法を用いて物体を認識した。
2−1.実験準備
この実験例で用いたデータベースについて説明する。実験例では、1002 個の3次元物体につき各物体をターンテーブルで1回転させ、正面、上15 度および上30 度の仰角からの動画をそれぞれ撮影した。
図14は、データベースに登録した物体の一例を示す説明図である。撮影された動画からフレーム画像を取得し、データベース用画像とした。これらの画像からSIFT 特徴量を抽出し、トレース処理を行い、部分空間を作成した。ここで、部分空間を作成する局所特徴量の集合は、トレース処理によって50 フレーム以上連続して対応づいた局所特徴量の集合とした。作成した部分空間を物体ID とともにデータベースに登録した。部分空間の数は、1物体あたり約550 個である。
次に、この実験例で用いた検索質問について説明する。データベースに用いた1002 物体のうち、無作為に100 物体を選び、選んだ物体を手で持って動画を撮影した。そして、撮影動画からフレーム画像を取得し、検索質問用画像とした。図15は、検索質問用に撮影した物体の一例を示す説明図である。検索質問用画像からもSIFT 特徴量を抽出した。
2−2.ANNを用いた距離計算に関する実験
第1の実験として、ANN を用いた距離計算の有効性を検証するため、最近傍探索を行った際と、ANNを用いて近似最近傍探索を行った際の認識率と処理時間の比較を行った。各検索質問用画像に対して撮影した物体を認識した。
相互部分空間法による認識率の向上を確かめることを目的として実験を行った。各物体の検索質問用フレーム画像に対して、トレース処理を行い、クエリ部分空間を作成した。クエリ部分空間を作成した局所特徴量の集合は、トレース処理によってT フレーム以上対応づいたもののみとした。T の値は[8, 13, 25, 38, 50] と変化させた。
この実施形態では、部分空間法において、最も高い類似度の部分空間を求める処理を高速化する手法を示した。この実施形態によれば、局所特徴量と最も高い類似度となる部分空間を求めるにあたり、各部分空間の各基底への射影成分ではなく、各部分空間の基底上の定点との距離の大小関係に基づいて求めた。距離の大小関係によって求めることで、ANN を用いて近似最近傍探索を行うことができ、処理時間の高速化が実現できた。
その結果、従来の部分空間法では処理時間が190 秒、認識率が34% であったものが、ANN を使うことで認識率を略同程度に保ちながら処理時間を0.012 秒にすることができた。また、相互部分空間法にも提案手法を適用し、処理時間の高速化と同時に、大幅な認識率の向上を可能にした。
α1,α2:特徴ベクトル
Claims (13)
- 三次元の物体を異なる視点から見た複数の画像が入力されたとき、各画像の局所的特徴を抽出し特徴ベクトルとしてそれぞれ表す工程と、
特徴ベクトルからなる複数の集合であって、各集合が、隣り合う一連の視点から前記物体の同一箇所を見た局所的特徴を表す集合を生成し、それぞれの集合の特性を表す複数の部分空間を部分空間法により生成する部分空間生成工程と、
各部分空間に前記物体の識別子を関連づけて三次元物体認識用データベースに登録する登録工程とを備え、
前記データベースは、三次元物体の認識処理のため、コンピュータによりアクセスされ、
前記認識処理は、ある物体をある視点から見た一つの画像または一連の視点から見た複数の画像が検索質問として与えられたとき、その検索質問の局所的特徴をそれぞれ表す複数の特徴ベクトルをクエリ特徴ベクトルとして抽出し、各クエリ特徴ベクトルに最も類似する部分空間をそれぞれ決定し、各部分空間に関連づけられた物体IDについて集計処理を行い、前記検索質問に最も類似する物体を得る工程により実現される三次元物体認識用画像データベースの作成方法。 - 前記登録工程は、前記物体の識別子および前記一連の視点を表す視点データの組み合わせを各部分空間に関連づけて登録し、
前記認識処理は、各部分空間に関連づけられた前記組み合わせについて集計処理を行い、前記検索質問に最も類似する物体および最も類似する視点を得る工程である請求項1に記載の方法。 - 前記部分空間生成工程は、隣り合う視点に対応する各対の特徴ベクトルの距離を計算し、異なる対との距離が予め定められた基準を超えて相違するものをノイズとして除外し、残った特徴ベクトルを同一箇所を表す特徴ベクトルの集合とする請求項1または2に記載の方法。
- 前記部分空間生成工程は、各集合の特徴ベクトルが予め定められた視点の変化量より広範囲に渡る場合は部分空間を生成するが、前記変化量に満たない場合は部分空間を生成しない請求項1〜3のいずれか一つに記載の方法。
- 前記部分空間生成工程は、隣り合う視点に対応する各対の特徴ベクトルのうち、最も近い距離で対をなす特徴ベクトル間の距離と2番目に近い距離で対をなす特徴ベクトル間の距離との相違が前記基準を超えるものをノイズとして除外する請求項4に記載の方法。
- 前記認識処理は、各クエリ特徴ベクトルを前記データベースに予め登録された各部分空間の座標系を定める基底にそれぞれ射影して射影成分の大きさに基づき各クエリ特徴ベクトルと各部分空間との類似度を算出し、最も高い類似度の部分空間を、そのクエリ特徴ベクトルに最も類似する部分空間であると決定する請求項1〜5のいずれか一つに記載の方法。
- 前記認識処理は、各部分空間が特性を表す特徴ベクトルの集合において最大の固有値に係る第一主成分の基底を各部分空間についてそれぞれ決定し、第一主成分の各基底上において原点からの正規化された距離が等しい位置にそれぞれ点をおき、各点と各クエリ特徴ベクトルとの距離を近似最近傍探索の手法を適用して求め、最も近い距離の部分空間を、そのクエリ特徴ベクトルに最も類似する部分空間であると決定する請求項1〜5のいずれか一つに記載の方法。
- 前記認識処理は、請求項7に記載の方法により各クエリ特徴ベクトルに類似する部分空間を幾つかの候補に絞り込んだ後、候補とされた各部分空間の各基底にそのクエリ特徴ベクトルをそれぞれ射影して射影成分の大きさに基づき各クエリ特徴ベクトルと各部分空間との類似度を算出し、最も高い類似度の部分空間を、そのクエリ特徴ベクトルに最も類似する部分空間であると決定する三次元物体認識用画像データベースの作成方法。
- 前記認識処理は、各クエリ特徴ベクトルに最も類似する部分空間を決定する処理に代えて、
(1)一連の視点から見た複数の画像が検索質問として与えられたとき、その検索質問に係るクエリ特徴ベクトルからなる複数の集合であって、各集合が、隣り合う一連の視点から前記物体の同一箇所を見た局所的特徴を表す集合を生成し、それぞれの集合の特性を表す複数のクエリ部分空間を部分空間法により生成し、
(2)各クエリ部分空間の座標系を定める各基底上において原点からの正規化された距離が所定の位置にそれぞれクエリ基準点をおき、前記データベースに登録された各部分空間の各基底上において原点からの正規化された距離が前記所定の位置にそれぞれ基準点をおき、
(3)各クエリ基準点から最短距離の基準点を有する部分空間を各近似最近傍探索の手法を用いて決定することにより、
各クエリ部分空間に最も類似する部分空間を決定する請求項1〜5の何れか一つに記載の方法。 - 前記視点データは、前記物体の撮影角度のデータである請求項2に記載の方法。
- 前記部分空間生成工程は、CLAFIC法を適用して特徴ベクトルを集合としてまとめ、部分空間を生成する請求項1〜10のいずれか一つに記載の方法。
- 部分空間の次元数は、1以上3以下である請求項1〜6のいずれか一つに記載の方法。
- 三次元の物体を異なる視点から見た複数の画像が入力されたとき、各画像の局所的特徴を抽出し特徴ベクトルとしてそれぞれ表す抽出部と、
特徴ベクトルからなる複数の集合であって、各集合が、隣り合う一連の視点から前記物体の同一箇所を見た局所的特徴を表す集合を生成し、それぞれの集合の特性を表す複数の部分空間を部分空間法により生成する部分空間生成部と、
各部分空間に前記物体の識別子を関連づけて三次元物体認識用データベースに登録する登録部とを備え、
前記データベースは、三次元物体の認識装置によりアクセスされ、
前記認識装置は、ある物体をある視点から見た一つの画像または一連の視点から見た複数の画像が検索質問として与えられたとき、その検索質問の局所的特徴をそれぞれ表す複数の特徴ベクトルをクエリ特徴ベクトルとして抽出し、各クエリ特徴ベクトルに最も類似する部分空間をそれぞれ決定し、各部分空間に関連づけられた物体IDについての集計処理を各クエリ特徴ベクトルについて行い、前記検索質問に最も類似する物体を得る機能を有する三次元物体認識用画像データベースの作成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012512888A JP5818327B2 (ja) | 2010-04-28 | 2011-04-27 | 三次元物体認識用画像データベースの作成方法および作成装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010103543 | 2010-04-28 | ||
JP2010103543 | 2010-04-28 | ||
JP2012512888A JP5818327B2 (ja) | 2010-04-28 | 2011-04-27 | 三次元物体認識用画像データベースの作成方法および作成装置 |
PCT/JP2011/060277 WO2011136276A1 (ja) | 2010-04-28 | 2011-04-27 | 三次元物体認識用画像データベースの作成方法および作成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2011136276A1 JPWO2011136276A1 (ja) | 2013-07-22 |
JP5818327B2 true JP5818327B2 (ja) | 2015-11-18 |
Family
ID=44861574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012512888A Expired - Fee Related JP5818327B2 (ja) | 2010-04-28 | 2011-04-27 | 三次元物体認識用画像データベースの作成方法および作成装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8971610B2 (ja) |
EP (1) | EP2565844B1 (ja) |
JP (1) | JP5818327B2 (ja) |
CN (1) | CN103109307B (ja) |
HK (1) | HK1184267A1 (ja) |
WO (1) | WO2011136276A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5906071B2 (ja) * | 2011-12-01 | 2016-04-20 | キヤノン株式会社 | 情報処理方法、情報処理装置、および記憶媒体 |
CN103136751A (zh) * | 2013-02-05 | 2013-06-05 | 电子科技大学 | 一种改进型sift图像特征匹配算法 |
US9495389B2 (en) * | 2013-03-15 | 2016-11-15 | Qualcomm Incorporated | Client-server based dynamic search |
US9418427B2 (en) * | 2013-03-15 | 2016-08-16 | Mim Software Inc. | Population-guided deformable registration |
EP3028838A1 (en) * | 2013-07-29 | 2016-06-08 | NEC Solution Innovators, Ltd. | 3d printer device, 3d printing method and method for manufacturing stereolithography product |
CN104133807B (zh) * | 2014-07-29 | 2017-06-23 | 中国科学院自动化研究所 | 学习跨平台多模态媒体数据共同特征表示的方法及装置 |
JP6393424B2 (ja) * | 2015-07-29 | 2018-09-19 | 株式会社日立製作所 | 画像処理システム、画像処理方法及び記憶媒体 |
TW201719572A (zh) * | 2015-11-19 | 2017-06-01 | 國立交通大學 | 三維模型分析及搜尋方法 |
AU2017229500A1 (en) * | 2016-03-08 | 2018-08-30 | Nant Holdings Ip, Llc | Image feature combination for image-based object recognition |
US20170323149A1 (en) * | 2016-05-05 | 2017-11-09 | International Business Machines Corporation | Rotation invariant object detection |
US10916135B2 (en) * | 2018-01-13 | 2021-02-09 | Toyota Jidosha Kabushiki Kaisha | Similarity learning and association between observations of multiple connected vehicles |
CN110147460B (zh) * | 2019-04-23 | 2021-08-06 | 湖北大学 | 基于卷积神经网络与多视角图的三维模型检索方法及装置 |
CN110389703A (zh) * | 2019-07-25 | 2019-10-29 | 腾讯数码(天津)有限公司 | 虚拟物品的获取方法、装置、终端和存储介质 |
US11328170B2 (en) * | 2020-02-19 | 2022-05-10 | Toyota Research Institute, Inc. | Unknown object identification for robotic device |
WO2022015236A1 (en) * | 2020-07-17 | 2022-01-20 | Hitachi, Ltd. | Method of image processing for object identification and system thereof |
CN112463952B (zh) * | 2020-12-22 | 2023-05-05 | 安徽商信政通信息技术股份有限公司 | 一种基于近邻搜索的新闻文本聚合方法及系统 |
US11886445B2 (en) * | 2021-06-29 | 2024-01-30 | United States Of America As Represented By The Secretary Of The Army | Classification engineering using regional locality-sensitive hashing (LSH) searches |
JP7113469B1 (ja) * | 2021-12-24 | 2022-08-05 | 学校法人明治大学 | 物体認識システム、物体認識プログラム及び、物体認識方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008026414A1 (fr) * | 2006-08-31 | 2008-03-06 | Osaka Prefecture University Public Corporation | Procédé de reconnaissance d'image, dispositif de reconnaissance d'image et programme de reconnaissance d'image |
WO2009133855A1 (ja) * | 2008-04-30 | 2009-11-05 | 公立大学法人大阪府立大学 | 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム |
JP2010009332A (ja) * | 2008-06-27 | 2010-01-14 | Denso It Laboratory Inc | 画像検索用データベース装置、画像検索用データベース管理方法およびプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2491727A1 (en) * | 2002-07-10 | 2004-01-22 | Nec Corporation | Image matching system using 3-dimensional object model, image matching method, and image matching program |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
-
2011
- 2011-04-27 US US13/643,284 patent/US8971610B2/en not_active Expired - Fee Related
- 2011-04-27 JP JP2012512888A patent/JP5818327B2/ja not_active Expired - Fee Related
- 2011-04-27 CN CN201180021296.XA patent/CN103109307B/zh not_active Expired - Fee Related
- 2011-04-27 EP EP11775057.0A patent/EP2565844B1/en not_active Not-in-force
- 2011-04-27 WO PCT/JP2011/060277 patent/WO2011136276A1/ja active Application Filing
-
2013
- 2013-10-16 HK HK13111622.8A patent/HK1184267A1/zh not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008026414A1 (fr) * | 2006-08-31 | 2008-03-06 | Osaka Prefecture University Public Corporation | Procédé de reconnaissance d'image, dispositif de reconnaissance d'image et programme de reconnaissance d'image |
WO2009133855A1 (ja) * | 2008-04-30 | 2009-11-05 | 公立大学法人大阪府立大学 | 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム |
JP2010009332A (ja) * | 2008-06-27 | 2010-01-14 | Denso It Laboratory Inc | 画像検索用データベース装置、画像検索用データベース管理方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
JPN6015006676; LOWE, D.G.: 'Local feature view clustering for 3D object recognition' CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern R , 2001, Pages I-682 - I-688, IEEE * |
JPN7015000452; REVAUD, J. et al.: 'Fast and cheap object recognition by linear combination of views' CIVR '07 Proceedings of the 6th ACM international conference on Image and video retrieval [online] , 2007, Pages 194 - 201, ACM * |
Also Published As
Publication number | Publication date |
---|---|
US20130039569A1 (en) | 2013-02-14 |
EP2565844A1 (en) | 2013-03-06 |
EP2565844A4 (en) | 2014-12-03 |
HK1184267A1 (zh) | 2014-01-17 |
EP2565844B1 (en) | 2016-04-06 |
US8971610B2 (en) | 2015-03-03 |
JPWO2011136276A1 (ja) | 2013-07-22 |
CN103109307A (zh) | 2013-05-15 |
WO2011136276A1 (ja) | 2011-11-03 |
CN103109307B (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5818327B2 (ja) | 三次元物体認識用画像データベースの作成方法および作成装置 | |
US10229342B2 (en) | Image-based feature detection using edge vectors | |
Bagri et al. | A comparative study on feature extraction using texture and shape for content based image retrieval | |
JP4963216B2 (ja) | コンピュータにより実施される、データサンプルのセットについて記述子を作成する方法 | |
Aldoma et al. | Tutorial: Point cloud library: Three-dimensional object recognition and 6 dof pose estimation | |
Salti et al. | A performance evaluation of 3d keypoint detectors | |
Darom et al. | Scale-invariant features for 3-D mesh models | |
US9141871B2 (en) | Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space | |
Tabia et al. | Covariance-based descriptors for efficient 3D shape matching, retrieval, and classification | |
Hariri et al. | 3D face recognition using covariance based descriptors | |
US20110286628A1 (en) | Systems and methods for object recognition using a large database | |
US20120301014A1 (en) | Learning to rank local interest points | |
US10796196B2 (en) | Large scale image recognition using global signatures and local feature information | |
US8718362B2 (en) | Appearance and context based object classification in images | |
Kobyshev et al. | Matching features correctly through semantic understanding | |
Cicconet et al. | Mirror symmetry histograms for capturing geometric properties in images | |
Hassner et al. | When standard RANSAC is not enough: cross-media visual matching with hypothesis relevancy | |
Pickup et al. | Shrec’15 track: Canonical forms for non-rigid 3d shape retrieval | |
CN105989592B (zh) | 基于双聚类及邻域分析的高光谱图像波段选择方法 | |
Nanni et al. | Ensemble of shape descriptors for shape retrieval and classification | |
Wu et al. | A vision-based indoor positioning method with high accuracy and efficiency based on self-optimized-ordered visual vocabulary | |
Tang et al. | A GMS-guided approach for 2D feature correspondence selection | |
Razzaghi et al. | A new invariant descriptor for action recognition based on spherical harmonics | |
KR101306576B1 (ko) | 차분 성분을 고려한 조명 변화에 강인한 얼굴 인식 시스템 | |
JP2015001941A (ja) | 物体識別システムおよび物体識別方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150410 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5818327 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |