JP6126979B2 - Feature selection apparatus, method, and program - Google Patents
Feature selection apparatus, method, and program Download PDFInfo
- Publication number
- JP6126979B2 JP6126979B2 JP2013256015A JP2013256015A JP6126979B2 JP 6126979 B2 JP6126979 B2 JP 6126979B2 JP 2013256015 A JP2013256015 A JP 2013256015A JP 2013256015 A JP2013256015 A JP 2013256015A JP 6126979 B2 JP6126979 B2 JP 6126979B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- common
- images
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、特徴選択装置、方法、及びプログラムに係り、特に、特徴選択を行う特徴選択装置、方法、及びプログラムに関する。 The present invention relates to a feature selection device, method, and program, and more particularly, to a feature selection device, method, and program for performing feature selection.
局所特徴を対象とした特徴選択方法には、同一概念や物体等を表す複数画像における局所特徴の出現頻度に着目し、出現頻度が高い局所特徴を検索や認識等に有益な注目特徴と見なし選択する方法がある(非特許文献1、非特許文献2、非特許文献3)。 In the feature selection method for local features, focus on the appearance frequency of local features in multiple images representing the same concept or object, and select local features with high appearance frequency as useful features for search and recognition. (Non-patent document 1, Non-patent document 2, Non-patent document 3).
具体的には、ある局所特徴が画像に出現した場合における画像分類ラベルの事後確率を局所特徴の出現頻度と捉え、事後確率が高い局所特徴を選択する方法(非特許文献1)と、事後確率のエントロピーを基に情報獲得量と呼ばれる尺度を定義し、局所特徴の出現頻度と捉え、情報獲得量が高い局所特徴を選択する方法(非特許文献2)と、特徴選択問題を雑音特徴排除問題に設定し、関心分類ラベル(正例)であると誤認識される傾向が顕著な負例画像を対象に、負例画像における局所特徴の出現頻度に着目し、出現頻度が高い局所特徴を雑音と見なし排除する方法(非特許文献3)とがある。 Specifically, a method of selecting a local feature with a high posterior probability (Non-Patent Document 1), taking the posterior probability of an image classification label when a certain local feature appears in an image as the appearance frequency of the local feature, and the posterior probability A measure called information acquisition amount is defined based on the entropy of the image, and it is regarded as the appearance frequency of local features, and a local feature with a high information acquisition amount is selected (Non-Patent Document 2), and the feature selection problem is a noise feature exclusion problem Focusing on the appearance frequency of local features in negative example images, focusing on negative example images that tend to be misrecognized as interest classification labels (positive examples). (Non-patent Document 3).
また、特徴点間の文脈関係に着目する特徴選択方法には、同一概念や物体等を表すと思われる複数画像を対象に空間文脈に基づいた照合を実施し、空間的一貫性が強い局所特徴を検索や認識等に有益な注目特徴と見なし選択する方法がある(非特許文献4)。 In addition, the feature selection method that focuses on the contextual relationship between feature points is a local feature that has strong spatial consistency by performing collation based on spatial context for multiple images that may represent the same concept or object. Is selected as a feature of interest useful for search and recognition (Non-Patent Document 4).
非特許文献4の方法では、空間文脈照合方法の一つであるRANSAC(非特許文献5)を駆使し、RANSACの出力であるInlierと呼ばれる特徴点を空間的一貫性が高いと見なし選択する。 In the method of Non-Patent Document 4, RANSAC (Non-Patent Document 5), which is one of spatial context matching methods, is used to select a feature point called Inlier, which is an output of RANSAC, with high spatial consistency.
また、空間文脈を考慮した特徴表現方法は、画像中の濃淡変化が大きい特徴点を対象に、特徴点間の相対位置関係や幾何学特性差分等の文脈関係に着目し、このような文脈関係を画像特徴として表現する方法である。 In addition, the feature expression method that takes into account the spatial context focuses on feature points with large shading changes in the image, focusing on contextual relationships such as the relative positional relationship between the feature points and geometric characteristic differences. Is expressed as an image feature.
具体的には、マルチスケールドロネー図を提案・駆使し、画像空間上における近傍となる特徴点の三つ組を検出し、この三つ組を基本単位とした特徴表現方法(非特許文献6)と、K近傍法を駆使し、画像空間上における近傍となる特徴点対を検出し、この対の幾何学特性(大きさと主方向)差分に基づいた特徴表現方法(非特許文献7)と、画像間における類似特徴点を基に幾何学変換を複数仮設し、各仮設の証拠となる特徴点をInlierと定義し、このInlierの数を尺度にしたRANSACと呼ばれる画像表現・照合方法と、類似特徴点間における幾何学的特性(大きさと主方向)に着目し、幾何学的特性差分ヒストグラムによるWeak Geometrical Consistencyと呼ばれる画像表現・照合方法(非特許文献8)とがある。 Specifically, a multi-scale Delaunay diagram is proposed and used to detect a triad of feature points that are neighboring in the image space, and a feature representation method (Non-Patent Document 6) using this triad as a basic unit, Using feature-based methods to detect feature point pairs that are close to each other in the image space, a feature expression method (Non-Patent Document 7) based on the difference in geometric characteristics (size and main direction) of this pair, and similarity between images A number of geometric transformations are temporarily set based on feature points, feature points that are evidence of each temporary are defined as Inliers, and an image expression / matching method called RANSAC with the number of Inliers as a scale, and between similar feature points Focusing on geometric characteristics (size and main direction), image representation and collation method called Weak Geometric Consistency by geometric characteristic difference histogram (non- Patent Document 8).
上記の方法は、特徴点の幾何学的特性に依存するか否かによる分類も可能である。非特許文献6の方法は、特徴点間における近傍関係のみに基づくため、幾何学的特性に依存しない方法に分類され、非特許文献6の方法は、特徴点の形状を表す楕円領域を画像照合の基本単位と見なす。非特許文献8の方法及び非特許文献7の方法は、特徴点の大きさと主方向を基に画像表現を実施するため、幾何学的特性に依存する方法に分類される。ここで、幾何学的特性に依存しない方法は、特徴点検出、記述の誤差に頑強であるのに対し、幾何学的特性に依存する方法は、不正解画像に対する弁別力が高い長所をもつ。 The above method can also be classified according to whether or not it depends on the geometric characteristics of feature points. Since the method of Non-Patent Document 6 is based only on the neighborhood relationship between feature points, it is classified as a method that does not depend on geometric characteristics. Is considered the basic unit. The method of Non-Patent Document 8 and the method of Non-Patent Document 7 are classified into methods that depend on geometric characteristics in order to perform image representation based on the size and main direction of feature points. Here, the method that does not depend on the geometric characteristics is robust against the error of feature point detection and description, whereas the method that depends on the geometric characteristics has an advantage of high discrimination power against incorrect images.
非特許文献1〜3の方法は、単一特徴点にしか着目せず、複数特徴点間の文脈関係を考慮しないため、白色雑音のような雑音領域による悪影響を受けやすい問題がある。 The methods of Non-Patent Documents 1 to 3 focus only on a single feature point and do not consider the context relationship between a plurality of feature points, and thus have a problem of being easily affected by a noise region such as white noise.
空間文脈を考慮した特徴表現に基づく特徴選択に関して、非特許文献4の方法は、入力となる複数画像における空間的一貫性が強い局所特徴しか選択できない。そのため、結果的に、検索や認識等に有益であるにもかかわらず、入力となる複数画像が不充分な為に空間的一貫性が低いといったような注目特徴が過度に排除される傾向がある。 Regarding feature selection based on feature expression in consideration of a spatial context, the method of Non-Patent Document 4 can select only local features having strong spatial consistency in a plurality of input images. Therefore, as a result, although it is useful for search, recognition, etc., there is a tendency that features of interest such as low spatial consistency due to insufficient input multiple images are excessively excluded. .
また、特徴点の幾何学特性(形状等)に依存するため、特徴点検出・記述の誤差に敏感であり、空間的一貫性の解析が計算負荷の高いRANSACに依存する為、大規模なデータベースに適応するのが困難である。 In addition, because it depends on the geometric characteristics (shape, etc.) of feature points, it is sensitive to errors in feature point detection / description, and because spatial consistency analysis depends on RANSAC, which has a high computational load, a large database Difficult to adapt to.
非特許文献7の方法において、K近傍法による近傍検出に基づく空間文脈特徴表現・特徴選択方法が考えられるが、K近傍法自体の計算負荷が高く、処理時間が長いという問題がある。 In the method of Non-Patent Document 7, a spatial context feature expression / feature selection method based on neighborhood detection by the K neighborhood method can be considered, but there is a problem that the calculation load of the K neighborhood method itself is high and the processing time is long.
本発明では、上記問題点を解決するために成されたものであり、適切な注目特徴を選択することができる特徴選択装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to provide a feature selection apparatus, method, and program capable of selecting an appropriate feature of interest.
上記目的を達成するために、第1の発明に係る特徴選択装置は、対象物を表す複数の画像を受け付ける入力部と、前記入力部において受け付けた複数の画像の各々について、前記画像の特徴点の各々を抽出し、前記特徴点の局所特徴の各々を抽出する局所特徴抽出部と、前記複数の画像の各々について、前記画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、前記複数の画像の各々について、前記検出された前記画像の共通特徴点のうちの複数の共通特徴点のペアを各々検出し、前記検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴を表す空間文脈特徴表現を生成し、前記複数の画像の各々について、前記検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現の前記ペアの各々を検出する空間文脈特徴表現部と、前記複数の画像の各々について、前記空間文脈特徴表現部において検出された前記画像の前記共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定する注目領域推定部と、前記複数の画像の各々について、前記注目領域推定部において推定された前記画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する特徴選択部と、を含んで構成されている。 In order to achieve the above object, a feature selection device according to a first invention includes an input unit that receives a plurality of images representing an object, and a feature point of the image for each of the plurality of images received by the input unit. A local feature extraction unit that extracts each of the local features of the feature points, and for each of the plurality of images, a feature point of the image, and a local feature extracted from another image Detecting each feature point having a common local feature as a common feature point, and for each of the plurality of images, detecting each of a plurality of common feature point pairs among the detected common feature points of the image Generating a spatial context feature representation representing local features of the plurality of common feature points for each of the detected pairs, and for each of the plurality of images, the detected pair, Painting A spatial context feature representation unit that detects each of the pairs of spatial context feature representations that are common to the spatial context feature representation generated from the image, and the images detected in the spatial context feature representation unit for each of the plurality of images A region of interest estimation unit that estimates a region of interest based on the pair of the common spatial context feature representations, and each of the plurality of images is included in the region of interest of the image estimated by the region of interest estimation unit And a feature selection unit that selects each of the local features of the feature points as attention features.
第2の発明に係る特徴選択方法は、入力部と、局所特徴抽出部と、空間文脈特徴表現部と、注目領域推定部と、特徴選択部と、を含む特徴選択装置における特徴選択方法であって、前記入力部は、対象物を表す複数の画像を受け付け、前記局所特徴抽出部は、前記入力部において受け付けた複数の画像の各々について、前記画像の特徴点の各々を抽出し、前記特徴点の局所特徴の各々を抽出し、前記空間文脈特徴表現部は、前記複数の画像の各々について、前記画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、前記複数の画像の各々について、前記検出された前記画像の共通特徴点のうちの複数の共通特徴点のペアを各々検出し、前記検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴を表す空間文脈特徴表現を生成し、前記複数の画像の各々について、前記検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現の前記ペアの各々を検出し、前記注目領域推定部は、前記複数の画像の各々について、前記空間文脈特徴表現部において検出された前記画像の前記共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定し、前記特徴選択部は、前記複数の画像の各々について、前記注目領域推定部において推定された前記画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する。 A feature selection method according to a second invention is a feature selection method in a feature selection device including an input unit, a local feature extraction unit, a spatial context feature expression unit, a region of interest estimation unit, and a feature selection unit. The input unit receives a plurality of images representing an object, and the local feature extraction unit extracts each of feature points of the image for each of the plurality of images received by the input unit, and the feature Each of the local features of the points is extracted, and the spatial context feature representation unit extracts, for each of the plurality of images, a local feature that is a feature point of the image and is common to the local features extracted from other images. Each of the feature points is detected as a common feature point, and for each of the plurality of images, a plurality of common feature point pairs among the common feature points of the detected image are detected, and the detected Each of the pairs On the other hand, a spatial context feature representation representing local features of the plurality of common feature points is generated, and for each of the plurality of images, the detected pair of the spatial context feature representations generated from other images Each of the pair of spatial context feature representations that are in common with each other, and the region of interest estimation unit, for each of the plurality of images, the common spatial context feature of the images detected in the spatial context feature representation unit A region of interest is estimated based on the pair of expressions, and the feature selection unit, for each of the plurality of images, local features of feature points included in the region of interest of the image estimated by the region of interest estimation unit Are selected as features of interest.
第1及び第2の発明によれば、入力部により、対象物を表す複数の画像を受け付け、局所特徴抽出部により、画像の各々について、特徴点の各々を抽出し、特徴点の局所特徴の各々を抽出し、空間文脈特徴表現部により、複数の画像の各々について、画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、複数の画像の各々について、検出された画像の共通特徴点のうちの複数の共通特徴点のペアを各々検出し、検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴を表す空間文脈特徴表現を生成し、複数の画像の各々について、検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現のペアの各々を検出し、注目領域推定部は、複数の画像の各々について、検出された画像の共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定し、特徴選択部により、複数の画像の各々について、推定された画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する。 According to the first and second inventions, the input unit receives a plurality of images representing an object, the local feature extraction unit extracts each feature point for each of the images, and the local feature of the feature point is extracted. Each of the plurality of images is extracted by the spatial context feature expression unit, and each of the feature points having the same local features as the local features extracted from other images is common to each of the plurality of images. A plurality of common feature points among the common feature points of the detected image are detected for each of the plurality of images, and the plurality of common features is detected for each of the detected pairs. A spatial context feature representation that represents a local feature of a point is generated, and for each of a plurality of images, a pair of the spatial context feature representation that is detected and is common to the spatial context feature representation generated from another image Detect each of The attention area estimation unit estimates the attention area for each of the plurality of images based on the pair of spatial context feature expressions common to the detected images. Each of the local features of the feature points included in the estimated region of interest of the image is selected as the feature of interest.
このように、第1及び第2の発明によれば、対象物を表す画像の各々について抽出された特徴点毎の局所特徴の各々を抽出し、複数の画像において共通する空間文脈特徴表現の各々を検出し、複数の画像の各々について、共通する空間文脈特徴表現に基づいて、注目領域を推定し、複数の画像の各々について、推定された注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択することにより、適切な注目特徴を選択することができる。 Thus, according to the first and second inventions, each of the local features for each feature point extracted for each of the images representing the object is extracted, and each of the spatial context feature expressions common to the plurality of images is extracted. For each of the plurality of images based on the common spatial context feature expression, and for each of the plurality of images, each of the local features of the feature points included in the estimated region of interest is determined. By selecting as a feature of interest, an appropriate feature of interest can be selected.
また、第1の発明において、前記空間文脈特徴表現は、前記画像の共通特徴点についてのマルチスケールドロネー図に基づいて得られる、近傍に存在する複数の共通特徴点のペアの局所特徴を表したものとしてもよい。 Further, in the first invention, the spatial context feature representation represents a local feature of a pair of a plurality of common feature points existing in the vicinity, obtained based on a multiscale Delaunay diagram for the common feature points of the image. It may be a thing.
また、第1の発明において、前記空間文脈特徴表現は、前記画像の共通特徴点からK近傍法により得られる、近傍に存在する複数の共通特徴点のペアの局所特徴を表したものとしてもよい。 In the first invention, the spatial context feature expression may represent a local feature of a plurality of pairs of common feature points existing in the vicinity obtained from the common feature points of the image by a K-neighbor method. .
また、第1の発明において、前記空間文脈特徴表現は、前記複数の共通特徴点のペアの幾何学的特性を考慮せずに、複数の共通特徴点のペアの局所特徴を表したものとしてもよい。 In the first invention, the spatial context feature expression may represent a local feature of a plurality of common feature point pairs without considering a geometric characteristic of the plurality of common feature point pairs. Good.
また、第1の発明において、前記空間文脈特徴表現は、複数の共通特徴点のペアの局所特徴及び前記複数の共通特徴点のペアの幾何学的特性の差分を表したものとしてもよい。 In the first invention, the spatial context feature representation may represent a local feature of a plurality of common feature point pairs and a difference in geometric characteristics of the plurality of common feature point pairs.
また、本発明のプログラムは、コンピュータを、上記の特徴選択装置を構成する各部として機能させるためのプログラムである。 Moreover, the program of this invention is a program for functioning a computer as each part which comprises said feature selection apparatus.
以上説明したように、本発明の特徴選択装置、方法、及びプログラムによれば、対象物を表す画像の各々について抽出された特徴点毎の局所特徴の各々を抽出し、複数の画像において共通する空間文脈特徴表現の各々を検出し、複数の画像の各々について、共通する空間文脈特徴表現に基づいて、注目領域を推定し、複数の画像の各々について、推定された注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択することにより、適切な注目特徴を選択することができる。 As described above, according to the feature selection device, method, and program of the present invention, each local feature for each feature point extracted for each image representing an object is extracted, and is common to a plurality of images. Detecting each of the spatial context feature representations, estimating a region of interest for each of the plurality of images based on a common spatial context feature representation, and feature points included in the estimated region of interest for each of the plurality of images By selecting each of the local features as the feature of interest, an appropriate feature of interest can be selected.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<第1の実施の形態に係る特徴選択装置の構成>
次に、本発明の第1の実施の形態に係る特徴選択装置の構成について説明する。図1に示すように、本発明の第1の実施の形態に係る特徴選択装置100は、CPUと、RAMと、後述する特徴選択処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この特徴選択装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部90とを備えている。
<Configuration of Feature Selection Device According to First Embodiment>
Next, the configuration of the feature selection device according to the first embodiment of the present invention will be described. As shown in FIG. 1, a
入力部10は、同一の対象物(概念や物体等)を含む複数の画像の各々を受け付ける。
The
演算部20は、局所特徴抽出部30と、空間文脈特徴表現部40と、注目領域推定部60と、特徴選択部70とを含んで構成されている。
The
局所特徴抽出部30は、入力部10において受け付けた画像の各々について、当該画像から特徴点の各々を抽出し、当該特徴点の各々の局所特徴ベクトルを抽出する。また、局所特徴抽出部30は、図2に示すように、特徴点抽出部32と、特徴点記述部34と、コードブック記憶部36と、Visual Word割当部38とを含んで構成されている。なお、局所特徴ベクトルが局所特徴の一例である。
For each of the images received by the
特徴点抽出部32は、入力部10において受け付けた画像の各々について、当該画像と当該画像を反転させた画像から、Hessian AffineやHarris Affine等のアフィン不変特徴検出器を用いて、楕円領域の各々を抽出し、当該楕円領域の中心を特徴点として抽出し、当該特徴点の各々の座標を取得する。
For each of the images received by the
特徴点記述部34は、画像の各々について、特徴点抽出部32において抽出された当該画像の特徴点の各々に対し、当該画像と、当該画像を反転させた画像と、当該特徴点の座標とに基づいて、当該特徴点の楕円領域の局所特徴ベクトルを計算する。局所特徴ベクトルの一例として、SIFT、SURF、及びRoot SIFT等を計算する。
For each image, the feature
コードブック記憶部36は、後述するコードブック学習装置200において出力されたコードブックを記憶している。ここで、コードブックとは、局所特徴ベクトル毎に対応して定義されているユニークなVisual Wordの集合のことである。
The code
Visual Word割当部38は、画像の各々について、特徴点抽出部32において抽出された当該画像の特徴点の各々に対し、特徴点記述部34において計算された当該特徴点の局所特徴ベクトルと、コードブック記憶部36に記憶されているコードブックとに基づいて、近似最近傍法を用いて、当該局所特徴ベクトルの最近傍となるVisual Wordを取得し、当該特徴点の局所特徴ベクトルに割当てる。
For each of the images, the Visual
空間文脈特徴表現部40は、局所特徴抽出部30において画像の各々について抽出された局所特徴ベクトルの各々に基づいて、空間文脈を考慮した特徴表現・照合を実施し、他の画像と空間文脈特徴表現が共通する共通特徴点のペアを検出する。また、空間文脈特徴表現部40は、図3に示すように、特徴点索引付与部42と、共通特徴点検出部44と、近傍検出部46と、近傍記述部48と、近傍索引付与部52と、共通近傍検出部54とを含んで構成されている。
The spatial context
特徴点索引付与部42は、特徴点抽出部32において画像の各々について抽出された特徴点の各々に対し、当該特徴点に割当てられているVisual Wordに基づいて、転置索引付与等を用いて、当該特徴点に割当てられているVisual Wordに対応させて、当該特徴点を特徴点索引に入れ、特徴点索引を生成する。
The feature point index assigning unit 42 uses, for each feature point extracted for each image in the feature
共通特徴点検出部44は、特徴点索引付与部42において生成された特徴点索引に基づいて、入力部10において受け付けた画像の各々について、特徴点抽出部32において抽出された当該画像の特徴点であり、かつ、同一のVisual Wordが割当てられている特徴点が他の画像から抽出されている特徴点を、共通特徴点として検出する。具体的には、特徴点索引において、Visual Wordに対応する特徴点として、複数の画像の特徴点が存在する場合、当該特徴点を共通特徴点と見なし、検出する。
Based on the feature point index generated by the feature point index assigning unit 42, the common feature
近傍検出部46は、入力部10において受け付けた画像の各々について、共通特徴点検出部44において抽出された当該画像の共通特徴点の各々に対して、マルチスケールドロネー三角形分割を適用して、マルチスケールドロネー図を生成し、近傍に存在する共通特徴点のペアを検出し、検出された近傍に存在する共通特徴点のペアの集合からなる特徴点近傍集合を、画像毎に検出する。具体的には、入力部10において受け付けた画像の各々について、当該画像の共通特徴点を、共通特徴点に対応する楕円領域の大きさの小さい順で並べ替え、得られた一覧表を、複数の互いに重なった、部分集合に分割し、ドロネー三角形分割を各部分集合に適用し、マルチスケールドロネー図を生成する。そして、ドロネー三角形の辺で結ばれた2つの共通特徴点を、近傍に存在する共通特徴点のペアとして検出する。
The
近傍記述部48は、入力部10において受け付けた画像の各々について、近傍検出部46において検出された当該画像の特徴点近傍集合に基づいて、近傍に存在する共通特徴点のペア毎に、当該ペアを構成する共通特徴点の各々に割当てられたVisual Wordを連結させた記述子を、当該ペアの空間文脈特徴表現として生成し、当該ペアに割当てる。
For each of the images received by the
近傍索引付与部52は、近傍検出部46において検出された特徴点近傍集合の各々に含まれる、近傍に存在する共通特徴点のペア毎に、当該ペアに割当てられている空間文脈特徴表現に基づいて、転置索引付与等を用いて、当該ペアに割当てられている空間文脈特徴表現に対応させて、当該ペアを近傍索引に入れ、近傍索引を生成する。
The neighborhood
共通近傍検出部54は、近傍索引付与部52において生成された近傍索引に基づいて、入力部10において受け付けた画像の各々について、近傍検出部46において当該画像に対して検出された、近傍に存在する共通特徴点のペアであり、かつ、同一の空間文脈特徴表現が割当てられている、近傍に存在する共通特徴点のペアが他の画像から検出されているペアを、他の画像と空間文脈特徴表現が共通するペアとして検出する。
Based on the neighborhood index generated by the neighborhood
注目領域推定部60は、入力部10において受け付けた画像の各々について、空間文脈特徴表現部40において当該画像に対し検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアに基づいて、注目領域を推定する。また、注目領域推定部60は、図4に示すように、共通近傍拡張部62と、推移閉包部64と、境界矩形計算部66とを含んで構成されている。
The attention
共通近傍拡張部62は、入力部10において受け付けた画像の各々について、近傍検出部46において生成したマルチスケールドロネー図と、共通近傍検出部54において検出した、他の画像と空間文脈特徴表現が共通する共通特徴点のペアの各々とに基づいて、他の画像と空間文脈特徴表現が共通する共通特徴点のペアを拡張し、拡張した共通特徴点のペアを注目近傍として検出する。具体的には、入力部10において受け付けた画像の各々について、共通近傍検出部54において検出した、他の画像と空間文脈特徴表現が共通する共通特徴点のペア毎に、当該ペアを結ぶ辺を含むドロネー三角形について、当該ペアを結ぶ辺の対角が予め定められた閾値以上である場合(例えば、鈍角である場合)、当該対角を挟む両辺まで拡張し、注目近傍として検出する。図5に例を示す。
The common
推移閉包部64は、入力部10において受け付けた画像毎に、共通近傍検出部54において当該画像について検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアの各々に対応する辺と、共通近傍拡張部62において検出した注目近傍の各々に対応する辺とを組み合わせ、無向グラフと見なし、推移閉包を用いて、少なくとも1つ以上の連結グラフを検出する。
For each image received by the
境界矩形計算部66は、入力部10において画像の各々について、推移閉包部64において検出された当該画像の連結グラフの各々を包含する最小境界矩形を各々計算し、得られた少なくとも1つ以上の境界矩形における和集合を計算し、当該計算された和集合が表す領域を当該画像の注目領域として推定する。
The boundary
特徴選択部70は、入力部10において受け付けた画像の各々について、境界矩形計算部66において推定された当該画像の注目領域に含まれる、特徴点抽出部32において抽出した特徴点の各々の局所特徴ベクトルを注目特徴として選択する。
The
出力部90は、特徴選択部70において選択された注目特徴の各々を出力する。
The
<第1の実施の形態に係るコードブック学習装置の構成>
次に、本発明の第1の実施の形態に係るコードブック学習装置の構成について説明する。図1に示すように、本発明の第1の実施の形態に係るコードブック学習装置200は、CPUと、RAMと、後述するコードブック構築処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このコードブック学習装置200は、機能的には図6に示すように入力部210と、演算部220と、出力部290とを備えている。
<Configuration of Codebook Learning Device According to First Embodiment>
Next, the configuration of the code book learning device according to the first embodiment of the present invention will be described. As shown in FIG. 1, the code
入力部210は、コードブック学習用の複数の画像を受け付ける。
The
演算部220は、特徴点抽出部232と、特徴点記述部234と、コードブック記憶部236と、コードブック構築部238とを含んで構成されている。
The
特徴点抽出部232は、入力部210において受け付けた画像の各々について、当該画像と当該画像を反転させた画像から、Hessian AffineやHarris Affine等のアフィン不変特徴検出器を用いて、特徴点の各々を抽出し、当該特徴点の各々の座標を取得する。
For each of the images received by the
特徴点記述部234は、入力部210において受け付けた画像の各々について、特徴点抽出部232において抽出された当該画像の特徴点の各々について、上記特徴点記述部34と同様に、特徴点の楕円領域の局所特徴ベクトルを計算する。
The feature
コードブック記憶部236は、コードブック構築部238において学習されたコードブックを記憶している。
The code
コードブック構築部238は、特徴点記述部234において計算された特徴点の各々の局所特徴ベクトルに基づいて、近似K−MeansやVocabulary Tree等の方法を用いて、コードブックを学習し、コードブック記憶部236に記憶すると共に、出力部290に出力する。具体的には、局所特徴ベクトルの各々に対応するVisual Wordを学習し、局所特徴ベクトルとVisual Wordとのペアの集合をコードブックとする。
Based on the local feature vectors of the feature points calculated by the feature
出力部290は、コードブック構築部238において学習されたコードブックを出力する。
The
<第1の実施の形態に係るコードブック学習装置の作用>
次に、本発明の第1の実施の形態に係るコードブック学習装置200の作用について説明する。入力部210においてコードブック学習用の、複数の画像を受け付けると、コードブック学習装置200は、図7に示すコードブック学習処理ルーチンを実行する。
<Operation of the code book learning device according to the first embodiment>
Next, the operation of the code
まず、ステップS100では、入力部210において受け付けた複数の画像の各々について、特徴点の各々を抽出する。
First, in step S100, each feature point is extracted from each of a plurality of images received by the
次に、ステップS104では、入力部210において受け付けた複数の画像の各々について、ステップS100において取得した特徴点の各々について、当該特徴点の楕円領域の局所特徴ベクトルを計算する。
Next, in step S104, for each of the plurality of images received by the
次に、ステップS106では、ステップS104において取得した特徴点の各々の局所特徴ベクトルに基づいて、コードブックを学習し、コードブック記憶部236に記憶する。
Next, in step S106, the code book is learned based on the local feature vectors of the feature points acquired in step S104, and stored in the code
次に、ステップS108では、ステップS106において取得したコードブックを出力部290から出力して、コードブック学習処理ルーチンの処理を終了する。
Next, in step S108, the code book acquired in step S106 is output from the
<第1の実施の形態に係る特徴選択装置の作用>
次に、本発明の第1の実施の形態に係る特徴選択装置100の作用について説明する。事前に、コードブック学習装置200において学習されたコードブックが入力部10により受け付けられ、特徴選択装置100のコードブック記憶部36に記憶される。そして、入力部10において同一の対象物(概念や物体等)を含む複数の画像を受け付けると、特徴選択装置100は、図8に示す特徴選択処理ルーチンを実行する。
<Operation of Feature Selection Device According to First Embodiment>
Next, the operation of the
まず、ステップS200では、入力部10において受け付けた画像の各々について、特徴点の各々を抽出する。
First, in step S <b> 200, each feature point is extracted from each image received by the
次に、ステップS204では、入力部10において受け付けた画像の各々について、ステップS200において取得した当該画像の特徴点の各々の局所特徴ベクトルを計算する。
Next, in step S204, for each image received by the
次に、ステップS206では、コードブック記憶部36に記憶されているコードブックを読み込む。
In step S206, the code book stored in the code
次に、ステップS208では、入力部10において受け付けた画像の各々について、ステップS200において取得した当該画像の特徴点の各々に対し、ステップS204において取得した当該特徴点の局所特徴ベクトルと、ステップS206において取得したコードブックとに基づいて、近似最近傍法を用いて当該特徴点にVisual Wordを割当てる。
Next, in step S208, for each of the images received in the
次に、ステップS210では、ステップS200において取得した入力部10において受け付けた画像の各々について抽出された特徴点の各々に対し、ステップS208において、当該特徴点に割当てられているVisual Wordに基づいて、転置索引付与等を用いて、当該特徴点を特徴点索引に入れ、特徴点索引を生成する。
Next, in step S210, for each feature point extracted for each of the images received in the
次に、ステップS212では、ステップS210において生成された特徴点索引に基づいて、入力部10において受け付けた画像の各々について、ステップS200において取得した当該画像の特徴点であり、かつ、同一のVisual Wordが割当てられている特徴点が他の画像から抽出されている特徴点を、共通特徴点と見なし、検出する。
Next, in step S212, for each of the images received by the
次に、ステップS214では、入力部10において受け付けた画像の各々について、ステップS212において取得した当該画像の共通特徴点の各々に対して、マルチスケールドロネー三角形分割を適用して、マルチスケールドロネー図を生成し、近傍に存在する共通特徴点のペアを検出し、検出された近傍に存在する共通特徴点のペアの集合からなる特徴点近傍集合を検出する。
Next, in step S214, multiscale Delaunay triangulation is applied to each of the common feature points of the image acquired in step S212 for each of the images received by the
次に、ステップS216では、入力部10において受け付けた画像の各々について、ステップS214において取得した当該画像の特徴点近傍集合に基づいて、近傍に存在する共通特徴点のペア毎に、当該ペアを構成する共通特徴点の各々に対してステップS208において割当てられたVisual Wordを連結させた記述子を、当該ペアの空間文脈特徴表現として生成し、当該ペアに割当てる。
Next, in step S216, for each image received by the
次に、ステップS218では、ペアの各々について、ステップS216において当該ペア毎に割当てられた空間文脈特徴表現に基づいて、転置索引付与等を用いて、当該ペアに割当てられている空間文脈特徴表現に対応させて、当該ペアを近傍索引に入れ、近傍索引を生成する。 Next, in step S218, for each of the pairs, based on the spatial context feature expression assigned to each pair in step S216, using the transposed index assignment or the like, the spatial context feature expression assigned to the pair is converted into the spatial context feature expression assigned to the pair. Correspondingly, the pair is placed in the neighborhood index to generate a neighborhood index.
次に、ステップS220では、ステップS218において取得した近傍索引に基づいて、入力部10において受け付けた画像の各々について、ステップS214において取得した当該画像に対して検出された、近傍に存在する共通特徴点のペアであり、かつ、ステップS216において、同一の空間文脈特徴表現が割当てられている、近傍に存在する共通特徴点のペアが他の画像から検出されているペアを、他の画像と空間文脈特徴表現が共通するペアとして検出する。
Next, in step S220, for each of the images received by the
次に、ステップS222では、入力部10において受け付けた画像の各々について、ステップS220において取得した当該画像に対し検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアの各々と、ステップS214において取得したマルチスケールドロネー図とに基づいて、他の画像と空間文脈特徴表現が共通する共通特徴点のペアを拡張し、拡張した結果を注目近傍として検出する。
Next, in step S222, for each of the images received by the
次に、ステップS224では、入力部10において受け付けた画像の各々について、ステップS220において取得した当該画像について検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアの各々に対応する辺と、ステップS222において取得した注目近傍の各々に対応する辺とを組み合わせ、無向グラフと見なし、推移閉包を用いて、少なくとも1つ以上の連結グラフを検出する。
Next, in step S224, each of the images received in the
次に、ステップS226では、入力部10において受け付けた画像の各々について、ステップS224において取得した当該画像の連結グラフの各々に基づいて、当該画像の注目領域を推定する。
Next, in step S226, for each image received by the
次に、ステップS228では、入力部10において受け付けた画像の各々について、ステップS226において取得した当該画像の注目領域に含まれる、ステップS204において取得した特徴点の各々の局所特徴ベクトルを注目特徴として選択する。
Next, in step S228, for each of the images received by the
次に、ステップS230では、ステップS228において取得した注目特徴を出力部90から出力して特徴選択処理ルーチンの処理を終了する。
Next, in step S230, the feature of interest acquired in step S228 is output from the
以上説明したように、本発明の第1の実施の形態に係る特徴選択装置によれば、対象物を表す画像の各々について抽出された特徴点毎の局所特徴の各々を抽出し、他の画像と局所特徴が共通する共通特徴点を検出し、マルチスケールドロネー三角形分割により、近傍に存在する共通特徴点のペアの検出を行い、複数の画像において共通する空間文脈特徴表現を有する共通特徴点のペアの各々を検出し、複数の画像の各々について、共通する空間文脈特徴表現に基づいて、幾何学特性に依存しない注目領域を推定し、複数の画像の各々について、推定された注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択することにより、適切な注目特徴を選択することができる。 As described above, according to the feature selection device according to the first embodiment of the present invention, each of the local features for each feature point extracted for each of the images representing the object is extracted, and another image is obtained. Common feature points that are common to local features are detected, and by using multiscale Delaunay triangulation, pairs of common feature points existing in the vicinity are detected, and common feature points having a common spatial context feature representation in multiple images are detected. Detect each pair, estimate a region of interest that does not depend on geometric characteristics based on a common spatial context feature representation for each of multiple images, and include each of the multiple images in the estimated region of interest An appropriate feature of interest can be selected by selecting each of the local features of the feature point to be selected as the feature of interest.
また、マルチドロネー三角形分割により、より効率的に、近傍に存在する共通特徴点のペアの検出を実現し、結果的に、特徴選択の効率を上げることができる。 In addition, multi- Delaunay triangulation makes it possible to more efficiently detect pairs of common feature points existing in the vicinity, and as a result, the efficiency of feature selection can be increased.
また、索引付与により、より効率的に空間文脈を考慮した特徴表現・照合を実現し、結果的に、特徴選択を大規模なデータベースに適応することが可能となる。 In addition, by indexing, it is possible to more efficiently realize feature expression / collation considering the spatial context, and as a result, feature selection can be applied to a large-scale database.
また、幾何学的特性に依存しない空間文脈特徴表現により、特徴点検出・記述の誤差に頑強な特徴選択ができる。 In addition, spatial context feature expression that does not depend on geometric characteristics enables feature selection that is robust against feature point detection and description errors.
また、入力となる複数画像から同一概念や物体等を表す画像の注目領域を推定することができ、結果的に、検索や認識等に有益であるにも関わらず、入力となる複数画像が不十分な為に空間的一貫性が低い注目特徴でも、過度に排除されることなく、より完全な特徴選択が実現できる。 In addition, it is possible to estimate a region of interest of an image representing the same concept or object from a plurality of input images, and as a result, although it is useful for search, recognition, etc., the plurality of input images are not valid. Even if the feature of interest has a low spatial consistency because it is sufficient, more complete feature selection can be realized without being excessively excluded.
また、特徴近傍を拡張することにより、より完全な注目領域推定が可能となる。 Further, by expanding the neighborhood of the feature, a more complete attention area estimation can be performed.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、第1の実施の形態においては、空間文脈特徴表現を、近傍に存在する共通特徴点のペアに含まれる特徴点の各々に割当てられたVisual Wordを連結したものとする場合について説明したが、これに限定されるものではない。後述する第2の実施の形態と同様に、近傍に存在する共通特徴点のペアに含まれる特徴点の各々に割当てられたVisual Wordを連結したもの、及び近傍に存在する共通特徴点のペアに含まれる特徴点の各々の幾何学特性の差分を表す空間文脈特徴表現を生成してもよい。 For example, in the first embodiment, a case has been described in which the spatial context feature representation is a combination of Visual Words assigned to each of feature points included in a pair of common feature points existing in the vicinity. However, the present invention is not limited to this. As in the second embodiment to be described later, a combination of Visual Words assigned to each of feature points included in a pair of common feature points existing in the vicinity, and a pair of common feature points existing in the vicinity A spatial context feature representation that represents a difference in geometric characteristics of each of the feature points included may be generated.
また、第1の実施の形態においては、特徴選択部70において、入力部10において受け付けた画像毎に、注目領域に含まれる特徴点の各々の局所特徴ベクトルを注目特徴として選択する場合について説明したが、これに限定されるものではない。例えば、特徴選択部70において、入力部10において受け付けた画像毎に、注目領域から特徴点を抽出し、当該抽出された特徴点の各々について、局所特徴ベクトルを計算し、計算された局所ベクトルを注目特徴として選択するようにしてもよい。
In the first embodiment, the case has been described in which the
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。 Next, a second embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第2の実施の形態では、空間文脈特徴表現が特徴点の幾何学特性の差分を更に表している点、近傍に存在する共通特徴点のペアを、K近傍法を用いて検出している点、及び他の画像と空間文脈特徴表現が共通する共通特徴点のペアを拡張していない点が第1の実施の形態と異なっている。 In the second embodiment, the spatial context feature expression further represents a difference in geometric characteristics of feature points, and a pair of common feature points existing in the vicinity is detected using the K-neighbor method. The difference from the first embodiment is that a pair of common feature points that share a spatial context feature expression with other images is not expanded.
<第2の実施の形態に係る特徴選択装置の構成>
次に、第2の実施の形態に係る特徴選択装置300の構成について説明する。
<Configuration of Feature Selection Device According to Second Embodiment>
Next, the configuration of the
本発明の第2の実施の形態に係る特徴選択装置300は、図9に示すように、入力部10と、演算部320と、出力部90とを備えている。
As shown in FIG. 9, the
演算部320は、局所特徴抽出部30と、空間文脈特徴表現部340と、注目領域推定部360と、特徴選択部70とを備えている。
The
空間文脈特徴表現部340は、局所特徴抽出部30において画像の各々について抽出された局所特徴ベクトルの各々に基づいて、空間文脈を考慮した特徴表現・照合を実施し、他の画像と空間文脈特徴表現が共通する共通特徴点のペアを検出する。また、空間文脈特徴表現部340は、図10に示すように、特徴点索引付与部42と、共通特徴点検出部44と、近傍検出部346と、近傍記述部348と、近傍索引付与部52と、共通近傍検出部54とを含んで構成されている。
The spatial context
近傍検出部346は、入力部10において受け付けた画像の各々について、共通特徴点検出部44において抽出された当該画像の共通特徴点の各々に対して、K近傍法を適用して、近傍に存在する共通特徴点のペアを検出し、検出された近傍に存在する共通特徴点のペアの集合からなる特徴点近傍集合を、画像毎に検出する。
The
近傍記述部348は、入力部10において受け付けた画像の各々について、近傍検出部346において検出された当該画像の特徴点近傍集合に基づいて、近傍に存在する共通特徴点のペア毎に、当該ペアを構成する共通特徴点の各々に割当てられたVisual Wordを連結させたもの、及び当該ペアを構成する共通特徴点の各々の幾何学特性差分(楕円領域の大きさの差分、主方向の差分、楕円同士の最短距離等)を表す空間文脈特徴表現を生成し、当該ペアに割当てる。
For each of the images received by the
注目領域推定部360は、入力部10において受け付けた画像の各々について、空間文脈特徴表現部340において当該画像に対し検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアに基づいて、注目領域を推定する。また、注目領域推定部360は、図11に示すように、推移閉包部364と、境界矩形計算部66とを含んで構成されている。
The attention
推移閉包部364は、入力部10において受け付けた画像毎に、共通近傍検出部54において当該画像について検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアの各々に対応する辺を、無向グラフと見なし、推移閉包を用いて、少なくとも1つ以上の連結グラフを検出する。
For each image received by the
<第2の実施の形態に係る特徴選択装置の作用>
次に、本発明の第2の実施の形態に係る特徴選択装置300の作用について説明する。事前に、コードブック学習装置200において学習されたコードブックが入力部10により受け付けられ、特徴選択装置300のコードブック記憶部36に記憶される。そして、入力部10において同一の対象物(概念や物体等)を含む複数の画像を受け付けると、特徴選択装置300は、図12に示す特徴選択処理ルーチンを実行する。
<Operation of Feature Selection Device According to Second Embodiment>
Next, the operation of the
まず、ステップS200では、入力部10において受け付けた画像の各々について、特徴点の各々を抽出する。
First, in step S <b> 200, each feature point is extracted from each image received by the
次に、ステップS204では、入力部10において受け付けた画像の各々について、ステップS200において取得した当該画像の特徴点の各々の局所特徴ベクトルを計算する。
Next, in step S204, for each image received by the
次に、ステップS206では、コードブック記憶部36に記憶されているコードブックを読み込む。
In step S206, the code book stored in the code
次に、ステップS208では、入力部10において受け付けた画像の各々について、ステップS200において取得した当該画像の特徴点の各々に対し、ステップS204において取得した当該特徴点の局所特徴ベクトルと、ステップS206において取得したコードブックとに基づいて、近似最近傍法を用いて当該特徴点にVisual Wordを割当てる。
Next, in step S208, for each of the images received in the
次に、ステップS210では、ステップS200において取得した入力部10において受け付けた画像の各々について抽出された特徴点の各々に対し、ステップS208において、当該特徴点に割当てられているVisual Wordに基づいて、転置索引付与等を用いて、当該特徴点を特徴点索引に入れ、特徴点索引を生成する。
Next, in step S210, for each feature point extracted for each of the images received in the
次に、ステップS212では、ステップS210において生成された特徴点索引に基づいて、入力部10において受け付けた画像の各々について、ステップS200において取得した当該画像の特徴点であり、かつ、同一のVisual Wordが割当てられている特徴点が他の画像から抽出されている特徴点を、共通特徴点と見なし、検出する。
Next, in step S212, for each of the images received by the
次に、ステップS300では、入力部10において受け付けた画像の各々について、ステップS212において取得した当該画像の共通特徴点の各々に対して、K近傍法を適用して、近傍に存在する共通特徴点のペアを検出し、検出された近傍に存在する共通特徴点のペアの集合からなる特徴点近傍集合を検出する。
Next, in step S300, for each of the images received by the
次に、ステップS302では、入力部10において受け付けた画像の各々について、ステップS300において取得した当該画像の特徴点近傍集合に基づいて、近傍に存在する共通特徴点のペア毎に、当該ペアを構成する共通特徴点の各々に対して、ステップS208において割当てられたVisual Wordを連結させたもの、及び当該ペアを構成する共通特徴点の各々の幾何学特性差分(楕円領域の大きさの差分、主方向の差分、楕円同士の最短距離等)を表す空間文脈特徴表現を生成し、当該ペアに割当てる。
Next, in step S302, for each of the images received by the
次に、ステップS218では、ペアの各々について、ステップS302において当該ペア毎に割当てられた空間文脈特徴表現に基づいて、転置索引付与等を用いて、当該ペアに割当てられている空間文脈特徴表現に対応させて、当該ペアを近傍索引に入れ、近傍索引を生成する。 Next, in step S218, for each of the pairs, based on the spatial context feature expression assigned to each pair in step S302, using the transposed index assignment or the like, the spatial context feature expression assigned to the pair Correspondingly, the pair is placed in the neighborhood index to generate a neighborhood index.
次に、ステップS220では、ステップS218において取得した近傍索引に基づいて、入力部10において受け付けた画像の各々について、ステップS300において取得した当該画像に対して検出された、近傍に存在する共通特徴点のペアであり、かつ、ステップS302において取得した同一の空間文脈特徴表現が割当てられている、近傍に存在する共通特徴点のペアが他の画像から検出されているペアを、他の画像と空間文脈特徴表現が共通するペアとして検出する。
Next, in step S220, for each of the images received in the
次に、ステップS304では、入力部10において受け付けた画像の各々について、ステップS220において取得した当該画像に対し検出された、他の画像と空間文脈特徴表現が共通する共通特徴点のペアの各々に対応する辺を、無向グラフと見なし、推移閉包を用いて、少なくとも1つ以上の連結グラフを検出する。
Next, in step S304, for each of the images received by the
次に、ステップS226では、入力部10において受け付けた画像の各々について、ステップS304において取得した当該画像の連結グラフの各々に基づいて、当該画像の注目領域を推定する。
Next, in step S226, for each image received by the
次に、ステップS228では、入力部10において受け付けた画像の各々について、ステップS226において取得した当該画像の注目領域に含まれる、ステップS204において取得した特徴点の各々の局所特徴ベクトルを注目特徴として選択する。
Next, in step S228, for each of the images received by the
次に、ステップS230では、ステップS228において取得した注目特徴を出力部90から出力して特徴選択処理ルーチンの処理を終了する。
Next, in step S230, the feature of interest acquired in step S228 is output from the
以上説明したように、本発明の第2の実施の形態に係る特徴選択装置によれば、対象物を表す画像の各々について抽出された特徴点毎の局所特徴の各々を抽出し、他の画像と局所特徴が共通する共通特徴点を検出し、K近傍法により、近傍に存在する共通特徴点のペアの検出を行い、複数の画像において共通する空間文脈特徴表現を有する共通特徴点のペアの各々を検出し、複数の画像の各々について、共通する空間文脈特徴表現に基づいて、幾何学特性を考慮した注目領域を推定し、複数の画像の各々について、推定された注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択することにより、適切な注目特徴を選択することができる。 As described above, according to the feature selection device according to the second embodiment of the present invention, each local feature for each feature point extracted for each of the images representing the object is extracted, and another image is obtained. Common feature points that are common to local features are detected, a pair of common feature points existing in the neighborhood is detected by the K-neighbor method, and a pair of common feature points having a common spatial context feature representation in a plurality of images is detected. Detecting each of the plurality of images, estimating a region of interest in consideration of geometric characteristics based on a common spatial context feature expression, and including the features included in the estimated region of interest for each of the plurality of images By selecting each local feature of a point as a feature of interest, an appropriate feature of interest can be selected.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、第2の実施の形態においては、近傍に存在する共通特徴点のペアに含まれる特徴点の各々に割当てられたVisual Wordを連結したもの、及び近傍に存在する共通特徴点のペアに含まれる特徴点の各々の幾何学特性の差分を表す空間文脈特徴表現を生成する場合について説明したがこれに限定されるものではない。第1の実施の形態と同様に、近傍に存在する共通特徴点のペアに含まれる特徴点の各々に割当てられたVisual Wordを連結したものを空間文脈特徴表現として生成してもよい。 For example, in the second embodiment, a combination of Visual Words assigned to each of feature points included in a pair of common feature points existing in the vicinity, and a pair of common feature points existing in the vicinity Although the case where the spatial context feature expression representing the difference between the geometric characteristics of each feature point to be generated is described has been described, the present invention is not limited to this. As in the first embodiment, a combination of Visual Words assigned to each feature point included in a pair of common feature points existing in the vicinity may be generated as a spatial context feature expression.
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。 Further, in the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium or provided via a network. It is also possible to do.
10 入力部
20 演算部
30 局所特徴抽出部
32 特徴点抽出部
34 特徴点記述部
36 コードブック記憶部
38 Visual Word割当部
40 空間文脈特徴表現部
42 特徴点索引付与部
44 共通特徴点検出部
46 近傍検出部
48 近傍記述部
52 近傍索引付与部
54 共通近傍検出部
60 注目領域推定部
62 共通近傍拡張部
64 推移閉包部
66 境界矩形計算部
70 特徴選択部
90 出力部
100 特徴選択装置
200 コードブック学習装置
210 入力部
220 演算部
232 特徴点抽出部
234 特徴点記述部
236 コードブック記憶部
238 コードブック構築部
290 出力部
300 特徴選択装置
320 演算部
340 空間文脈特徴表現部
346 近傍検出部
348 近傍記述部
360 注目領域推定部
364 推移閉包部
DESCRIPTION OF
Claims (7)
前記入力部において受け付けた複数の画像の各々について、前記画像の特徴点の各々を抽出し、前記特徴点の局所特徴として、Visual Wordを各々抽出する局所特徴抽出部と、
前記複数の画像の各々について、前記画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、
前記複数の画像の各々について、前記検出された前記画像の共通特徴点のうちの前記画像内における複数の共通特徴点のペアを各々検出し、前記検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴であるVisual Wordを連結させた記述子を含む空間文脈特徴表現を生成し、
前記複数の画像の各々について、前記検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現の前記ペアの各々を検出する空間文脈特徴表現部と、
前記複数の画像の各々について、前記空間文脈特徴表現部において検出された前記画像の前記共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定する注目領域推定部と、
前記複数の画像の各々について、前記注目領域推定部において推定された前記画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する特徴選択部と、
を含む、特徴選択装置。 An input unit for receiving a plurality of images representing the object;
For each of a plurality of images received at the input unit, it extracts each characteristic point of the image, as a local feature of the feature point, and the local feature extractor for exiting each extract the Visual Word,
For each of the plurality of images, a feature point of the image, each of the feature points having a local feature common to a local feature extracted from another image is detected as a common feature point,
For each of the plurality of images, a pair of a plurality of common feature points in the image among the common feature points of the detected image is detected, and the plurality of pairs are detected for each of the detected pairs. Generating a spatial context feature representation including a descriptor concatenating Visual Words that are local features of the common feature points of
A spatial context feature representation unit that detects each of the pairs of spatial context feature representations that are the detected pairs and are common to spatial context feature representations generated from other images for each of the plurality of images; ,
A region of interest estimation unit that estimates a region of interest based on the pair of the common spatial context feature representations of the images detected in the spatial context feature representation unit for each of the plurality of images;
For each of the plurality of images, a feature selection unit that selects each of the local features of feature points included in the region of interest of the image estimated by the region of interest estimation unit as a feature of interest;
A feature selection device.
前記入力部において受け付けた複数の画像の各々について、前記画像の特徴点の各々を抽出し、前記特徴点の局所特徴の各々を抽出する局所特徴抽出部と、
前記複数の画像の各々について、前記画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、
前記複数の画像の各々について、前記検出された前記画像の共通特徴点のうちの複数の共通特徴点のペアを各々検出し、前記検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴を表す空間文脈特徴表現を生成し、
前記複数の画像の各々について、前記検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現の前記ペアの各々を検出する空間文脈特徴表現部と、
前記複数の画像の各々について、前記空間文脈特徴表現部において検出された前記画像の前記共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定する注目領域推定部と、
前記複数の画像の各々について、前記注目領域推定部において推定された前記画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する特徴選択部と、
を含み、
前記空間文脈特徴表現は、前記画像の共通特徴点についてのマルチスケールドロネー図に基づいて得られる、近傍に存在する複数の共通特徴点のペアの局所特徴を表したものである特徴選択装置。 An input unit for receiving a plurality of images representing the object;
For each of the plurality of images received in the input unit, each of the feature points of the image is extracted, and a local feature extraction unit that extracts each of the local features of the feature points;
For each of the plurality of images, a feature point of the image, each of the feature points having a local feature common to a local feature extracted from another image is detected as a common feature point,
For each of the plurality of images, each of a plurality of common feature points among the common feature points of the detected image is detected, and the plurality of common feature points is detected for each of the detected pairs. Generate a spatial context feature representation that represents local features of
A spatial context feature representation unit that detects each of the pairs of spatial context feature representations that are the detected pairs and are common to spatial context feature representations generated from other images for each of the plurality of images; ,
A region of interest estimation unit that estimates a region of interest based on the pair of the common spatial context feature representations of the images detected in the spatial context feature representation unit for each of the plurality of images;
For each of the plurality of images, a feature selection unit that selects each of the local features of feature points included in the region of interest of the image estimated by the region of interest estimation unit as a feature of interest;
Only including,
The feature selection apparatus, wherein the spatial context feature representation represents a local feature of a plurality of pairs of common feature points existing in the vicinity, obtained based on a multiscale Delaunay diagram for the common feature points of the image .
前記入力部は、対象物を表す複数の画像を受け付け、
前記局所特徴抽出部は、前記入力部において受け付けた複数の画像の各々について、前記画像の特徴点の各々を抽出し、前記特徴点の局所特徴として、Visual Wordを各々抽出し、
前記空間文脈特徴表現部は、前記複数の画像の各々について、前記画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、
前記複数の画像の各々について、前記検出された前記画像の共通特徴点のうちの前記画像内における複数の共通特徴点のペアを各々検出し、前記検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴であるVisual Wordを連結した記述子を含む空間文脈特徴表現を生成し、
前記複数の画像の各々について、前記検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現の前記ペアの各々を検出し、
前記注目領域推定部は、前記複数の画像の各々について、前記空間文脈特徴表現部において検出された前記画像の前記共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定し、
前記特徴選択部は、前記複数の画像の各々について、前記注目領域推定部において推定された前記画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する
特徴選択方法。 A feature selection method in a feature selection device including an input unit, a local feature extraction unit, a spatial context feature expression unit, a region of interest estimation unit, and a feature selection unit,
The input unit receives a plurality of images representing an object,
The local feature extraction unit for each of the plurality of images received at the input unit, extracts each characteristic point of the image, as a local feature of the feature point, out each extract the Visual Word,
The spatial context feature expression unit, for each of the plurality of images, is a feature point of the image, each feature point having a local feature common to a local feature extracted from another image as a common feature point Detect
For each of the plurality of images, a pair of a plurality of common feature points in the image among the common feature points of the detected image is detected, and the plurality of pairs are detected for each of the detected pairs. Generating a spatial context feature representation including a descriptor concatenating Visual Words that are local features of the common feature points of
For each of the plurality of images, detecting each of the detected pairs of spatial context feature representations that are in common with spatial context feature representations generated from other images;
The attention area estimation unit estimates an attention area for each of the plurality of images based on the pair of the common spatial context feature representations of the images detected by the spatial context feature representation unit,
The feature selection unit selects, for each of the plurality of images, each of local features of feature points included in the attention region of the image estimated by the attention region estimation unit as a feature of interest.
前記入力部は、対象物を表す複数の画像を受け付け、
前記局所特徴抽出部は、前記入力部において受け付けた複数の画像の各々について、前記画像の特徴点の各々を抽出し、前記特徴点の局所特徴の各々を抽出し、
前記空間文脈特徴表現部は、前記複数の画像の各々について、前記画像の特徴点であって、他の画像から抽出された局所特徴と共通する局所特徴を有する特徴点の各々を共通特徴点として検出し、
前記複数の画像の各々について、前記検出された前記画像の共通特徴点のうちの複数の共通特徴点のペアを各々検出し、前記検出された前記ペアの各々に対し、前記複数の共通特徴点の局所特徴を表す空間文脈特徴表現を生成し、
前記複数の画像の各々について、前記検出された前記ペアであって、他の画像から生成された空間文脈特徴表現と共通する空間文脈特徴表現の前記ペアの各々を検出し、
前記注目領域推定部は、前記複数の画像の各々について、前記空間文脈特徴表現部において検出された前記画像の前記共通する空間文脈特徴表現の前記ペアに基づいて、注目領域を推定し、
前記特徴選択部は、前記複数の画像の各々について、前記注目領域推定部において推定された前記画像の注目領域に含まれる特徴点の局所特徴の各々を注目特徴として選択する
ことを含み、
前記空間文脈特徴表現は、前記画像の共通特徴点についてのマルチスケールドロネー図に基づいて得られる、近傍に存在する複数の共通特徴点のペアの局所特徴を表したものである特徴選択方法。 A feature selection method in a feature selection device including an input unit, a local feature extraction unit, a spatial context feature expression unit, a region of interest estimation unit, and a feature selection unit,
The input unit receives a plurality of images representing an object,
The local feature extraction unit extracts each of the feature points of the image for each of the plurality of images received in the input unit, extracts each of the local features of the feature point,
The spatial context feature expression unit, for each of the plurality of images, is a feature point of the image, each feature point having a local feature common to a local feature extracted from another image as a common feature point Detect
For each of the plurality of images, each of a plurality of common feature points among the common feature points of the detected image is detected, and the plurality of common feature points is detected for each of the detected pairs. Generate a spatial context feature representation that represents local features of
For each of the plurality of images, detecting each of the detected pairs of spatial context feature representations that are in common with spatial context feature representations generated from other images;
The attention area estimation unit estimates an attention area for each of the plurality of images based on the pair of the common spatial context feature representations of the images detected by the spatial context feature representation unit,
The feature selection unit selects, as attention features, local features of feature points included in the attention region of the image estimated by the attention region estimation unit for each of the plurality of images.
Including
The feature selection method, wherein the spatial context feature representation represents a local feature of a plurality of pairs of common feature points existing in the vicinity obtained based on a multi-scale Delaunay diagram for the common feature points of the image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013256015A JP6126979B2 (en) | 2013-12-11 | 2013-12-11 | Feature selection apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013256015A JP6126979B2 (en) | 2013-12-11 | 2013-12-11 | Feature selection apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015114819A JP2015114819A (en) | 2015-06-22 |
JP6126979B2 true JP6126979B2 (en) | 2017-05-10 |
Family
ID=53528575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013256015A Active JP6126979B2 (en) | 2013-12-11 | 2013-12-11 | Feature selection apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6126979B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6435048B2 (en) * | 2015-07-06 | 2018-12-05 | 日本電信電話株式会社 | Image collation apparatus, image collation method, and program |
CN111126127B (en) * | 2019-10-23 | 2022-02-01 | 武汉大学 | High-resolution remote sensing image classification method guided by multi-level spatial context characteristics |
CN113160199B (en) * | 2021-04-29 | 2022-06-17 | 武汉联影医疗科技有限公司 | Image recognition method and device, computer equipment and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10171927A (en) * | 1996-12-11 | 1998-06-26 | Ricoh Co Ltd | Device and method for character recognition and storage medium readable by computer storing program for executing the method |
JP2007257043A (en) * | 2006-03-20 | 2007-10-04 | Nissan Motor Co Ltd | Occupant state estimating device and occupant state estimating method |
JP5549605B2 (en) * | 2011-01-13 | 2014-07-16 | 新日鐵住金株式会社 | Gaze position detection device, gaze position detection method, and computer program |
JP5753759B2 (en) * | 2011-10-19 | 2015-07-22 | 株式会社東芝 | Product reading apparatus and program |
-
2013
- 2013-12-11 JP JP2013256015A patent/JP6126979B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015114819A (en) | 2015-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4196302B2 (en) | Information processing apparatus and method, and program | |
US9619733B2 (en) | Method for generating a hierarchical structured pattern based descriptor and method and device for recognizing object using the same | |
Chen et al. | Page segmentation for historical handwritten document images using color and texture features | |
JP6593327B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
JP2006252162A (en) | Pattern recognition device and method therefor | |
TWI567660B (en) | Multi-class object classifying method and system | |
JP2015197681A (en) | Character recognition device and character extraction method for the same | |
Zhang et al. | Symbol recognition with kernel density matching | |
CN103236068A (en) | Method for matching local images | |
JP7183753B2 (en) | LIST GENERATION DEVICE, SUBJECT IDENTIFICATION DEVICE, LIST GENERATION METHOD, AND PROGRAM | |
Huang et al. | 3D face recognition based on local shape patterns and sparse representation classifier | |
JP6126979B2 (en) | Feature selection apparatus, method, and program | |
US10977527B2 (en) | Method and apparatus for detecting door image by using machine learning algorithm | |
JP4983539B2 (en) | Information processing apparatus and method, and program | |
JP6448036B2 (en) | Object region identification method, apparatus, and program | |
WO2013084731A1 (en) | Image identifying system | |
Akbar et al. | Bilateral symmetry detection on the basis of Scale Invariant Feature Transform | |
KR20130080743A (en) | Method of searching object field by matching the descritor set | |
Pavel et al. | Reliable object recognition using sift features | |
WO2013154062A1 (en) | Image recognition system, image recognition method, and program | |
JP6095559B2 (en) | Feature extraction apparatus, method, and program | |
Fleck et al. | Affine invariant-based classification of inliers and outliers for image matching | |
JP6946959B2 (en) | Identity determination device, local feature extraction device, method, and program | |
JP6668228B2 (en) | Subject identification device, method, and program | |
Do et al. | A Covariance-matching-based Model for Musical Symbol Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6126979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |