JP2013182416A - Feature amount extraction device, feature amount extraction method, and feature amount extraction program - Google Patents
Feature amount extraction device, feature amount extraction method, and feature amount extraction program Download PDFInfo
- Publication number
- JP2013182416A JP2013182416A JP2012045780A JP2012045780A JP2013182416A JP 2013182416 A JP2013182416 A JP 2013182416A JP 2012045780 A JP2012045780 A JP 2012045780A JP 2012045780 A JP2012045780 A JP 2012045780A JP 2013182416 A JP2013182416 A JP 2013182416A
- Authority
- JP
- Japan
- Prior art keywords
- image
- smoothing
- image group
- feature amount
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像の回転や拡大縮小などの変化に対して不変な局所特徴量を抽出する方法であるSIFT(Scale−Invariant Feature Transform)に関する。 The present invention relates to SIFT (Scale-Invariant Feature Transform), which is a method for extracting local feature amounts that are invariant to changes such as image rotation and enlargement / reduction.
非特許文献1は、SIFTによる特徴量抽出方法について記載している。具体的に、非特許文献1の方法は、入力画像を平滑化し、平滑化画像群から差分手段により微分画像群を生成し、微分画像群から特徴量を算出している。 Non-Patent Document 1 describes a feature quantity extraction method by SIFT. Specifically, in the method of Non-Patent Document 1, the input image is smoothed, a differential image group is generated from the smoothed image group by the difference means, and the feature amount is calculated from the differential image group.
特許文献1は、複数のオブジェクトを含むオブジェクト画像から、検出対象となるモデルを抽出する画像認識装置およびその方法、並びにそのような画像認識機能を搭載したロボット装置に関する発明を記載している。 Patent Literature 1 describes an invention relating to an image recognition apparatus and method for extracting a model to be detected from an object image including a plurality of objects, and a robot apparatus equipped with such an image recognition function.
非特許文献1は、微分画像群の生成に、LoG(Laplacian of Gaussian)フィルタの近似であるDoG(Difference of Gaussian)フィルタを用いているため、微分画像の画素値(微分係数)の精度がLoGフィルタによる結果に比べて劣化するという問題がある。すなわち微分画像の極値(極大値または極小値)として検出されるキーポイント候補の精度、さらには抽出される特徴量の精度も劣化するという問題がある。 Since Non-Patent Document 1 uses a DoG (Difference of Gaussian) filter that is an approximation of a LoG (Laplacian of Gaussian) filter to generate a differential image group, the accuracy of the pixel value (differential coefficient) of the differential image is LoG. There is a problem that the result is deteriorated as compared with the result of the filter. That is, there is a problem that the accuracy of the key point candidate detected as the extreme value (maximum value or minimum value) of the differential image, and further, the accuracy of the extracted feature value deteriorates.
一方、特許文献1では、平滑化画像からの微分画像の生成にDoGフィルタを用いれば先行技術1と同様の問題が生じる。また入力からの微分画像の生成にLoGフィルタを用いれば、平滑化画像の生成とは別に入力画像とLoGフィルタとの畳み込み演算を行う必要があり、演算量が増大するという問題がある。 On the other hand, in Patent Document 1, if a DoG filter is used to generate a differential image from a smoothed image, the same problem as in Prior Art 1 occurs. If a LoG filter is used to generate a differential image from an input, it is necessary to perform a convolution operation between the input image and the LoG filter separately from the generation of the smoothed image, which increases the amount of calculation.
本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、入力画像の特徴量を少ない演算量で高精度に抽出することを目的とする。 Examples of the problem to be solved by the present invention include the above. An object of the present invention is to extract a feature amount of an input image with high accuracy with a small amount of calculation.
請求項1に記載の発明は、特徴量抽出装置であって、入力画像を平滑化して平滑化画像群を生成する平滑化手段と、前記平滑化画像群を空間微分して微分画像群を生成する微分手段と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段と、を備えることを特徴とする。 The invention according to claim 1 is a feature quantity extraction device, wherein a smoothing unit that smoothes an input image to generate a smoothed image group, and a differential image group is generated by spatially differentiating the smoothed image group. And a feature quantity extraction means for extracting and outputting a feature quantity of the input image based on the differential image group.
請求項8に記載の発明は、特徴量抽出装置により実行される特徴量抽出方法であって、入力画像を平滑化して平滑化画像群を生成する平滑化工程と、前記平滑化画像群を空間微分して微分画像群を生成する微分工程と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出工程と、を有することを特徴とする。 The invention according to claim 8 is a feature quantity extraction method executed by a feature quantity extraction device, wherein a smoothing step of smoothing an input image to generate a smoothed image group, and the smoothed image group as a space A differentiation step of differentiating to generate a differential image group; and a feature amount extraction step of extracting and outputting a feature amount of the input image based on the differential image group.
請求項9に記載の発明は、コンピュータにより実行される特徴量抽出プログラムであって、入力画像を平滑化して平滑化画像群を生成する平滑化手段、前記平滑化画像群を空間微分して微分画像群を生成する微分手段、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段、として前記コンピュータを機能させる。 The invention according to claim 9 is a feature amount extraction program executed by a computer, smoothing means for smoothing an input image to generate a smoothed image group, and spatially differentiating the derivative of the smoothed image group The computer is caused to function as a differentiation unit that generates an image group, and a feature amount extraction unit that extracts and outputs a feature amount of the input image based on the differential image group.
本発明の好適な実施形態では、特徴量抽出装置は、入力画像を平滑化して平滑化画像群を生成する平滑化手段と、前記平滑化画像群を空間微分して微分画像群を生成する微分手段と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段と、を備える。 In a preferred embodiment of the present invention, the feature quantity extraction device includes a smoothing unit that smoothes an input image to generate a smoothed image group, and a differential that generates a differential image group by spatially differentiating the smoothed image group. And a feature quantity extraction means for extracting and outputting the feature quantity of the input image based on the differential image group.
上記の特徴量抽出装置は、外部から入力された入力画像を平滑化し、平滑化画像群を生成する。平滑化画像群は空間微分され、微分画像群が生成される。そして、微分画像群に基づいて入力画像の特徴量が抽出され、外部へ出力される。空間微分で微分画像を生成することにより、少ない演算量で高精度な特徴量抽出が可能となる。好適な例では、前記微分手段は、ラプラシアンフィルタ手段である。 The feature amount extraction apparatus smoothes an input image input from the outside, and generates a smoothed image group. The smoothed image group is spatially differentiated to generate a differentiated image group. And the feature-value of an input image is extracted based on a differential image group, and is output outside. By generating a differential image by spatial differentiation, highly accurate feature extraction can be performed with a small amount of computation. In a preferred example, the differentiating means is a Laplacian filter means.
上記の特徴量抽出装置の一態様は、前記微分手段から出力された微分画像の画素値を増幅して前記特徴量抽出手段に入力する増幅手段を備える。微分画像の画素値、即ち微分係数を増幅することにより、多くの特徴量を抽出することが可能となる。 One aspect of the above feature quantity extraction device includes amplification means for amplifying the pixel value of the differential image output from the differentiation means and inputting it to the feature quantity extraction means. By amplifying the pixel value of the differential image, that is, the differential coefficient, it is possible to extract many feature amounts.
上記の特徴量抽出装置の他の一態様は、前記入力画像をグレースケールに変換し、前記平滑化手段に入力するグレースケール変換手段を備える。この態様では、複数の色成分を有する入力画像を、色成分毎に別々に処理する必要がないため、処理量を減少させることができる。 Another aspect of the feature amount extraction apparatus includes a gray scale conversion unit that converts the input image into a gray scale and inputs the converted image to the smoothing unit. In this aspect, since it is not necessary to separately process an input image having a plurality of color components for each color component, the processing amount can be reduced.
上記の特徴量抽出装置の他の一態様は、前記入力画像の色空間を変換し、色空間変換後の入力画像を前記平滑化手段に入力する色空間変換手段を備える。この態様では、有効な特徴量の抽出を行うのに適した色空間を選択することができる。 Another aspect of the feature amount extraction apparatus includes a color space conversion unit that converts a color space of the input image and inputs the input image after the color space conversion to the smoothing unit. In this aspect, it is possible to select a color space suitable for extracting effective feature amounts.
上記の特徴量抽出装置の他の一態様は、前記入力画像の色空間を変換する色空間変換手段と、色空間変換後の入力画像から1つの色成分を抽出して前記平滑化手段に入力する色成分抽出手段と、を備える。この態様では、複数の色成分を有する色空間の入力画像から、有効な特徴量の抽出を行うのに適した色成分を選択して特徴量の抽出を行うことができる。 Another aspect of the feature amount extraction apparatus is a color space conversion unit that converts a color space of the input image, and extracts one color component from the input image after the color space conversion and inputs the color component to the smoothing unit. Color component extraction means. In this aspect, it is possible to extract a feature amount by selecting a color component suitable for extracting an effective feature amount from an input image in a color space having a plurality of color components.
上記の特徴量抽出装置の他の一態様は、前記入力画像の色空間を変換する色空間変換手段と、色空間変換後の入力画像から複数の色成分を抽出する色成分抽出手段と、抽出された複数の色成分について任意の演算を行い前記平滑化手段に入力する演算手段と、を備える。好適な例では、演算手段は、任意の演算として平均を算出する。この態様では、複数の色成分を有する色空間の入力画像から、有効な特徴量の抽出を行うのに適した複数の色成分を選択して特徴量の抽出を行うことができる。 Another aspect of the feature amount extraction apparatus includes a color space conversion unit that converts a color space of the input image, a color component extraction unit that extracts a plurality of color components from the input image after the color space conversion, and an extraction Arithmetic means for performing an arbitrary calculation on the plurality of color components and inputting the result to the smoothing means. In a preferred example, the calculation means calculates an average as an arbitrary calculation. In this aspect, it is possible to extract a feature quantity by selecting a plurality of color components suitable for extracting an effective feature quantity from an input image in a color space having a plurality of color components.
本発明の他の好適な実施形態は、特徴量抽出装置により実行される特徴量抽出方法であって、入力画像を平滑化して平滑化画像群を生成する平滑化工程と、前記平滑化画像群を空間微分して微分画像群を生成する微分工程と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出工程と、を有する。 Another preferred embodiment of the present invention is a feature amount extraction method executed by a feature amount extraction apparatus, which smoothes an input image to generate a smoothed image group, and the smoothed image group A differential process for generating a differential image group by spatial differentiation, and a feature quantity extraction process for extracting and outputting a feature quantity of the input image based on the differential image group.
上記の特徴量抽出方法では、外部から入力された入力画像が平滑化され、平滑化画像群が生成される。平滑化画像群は空間微分され、微分画像群が生成される。そして、微分画像群に基づいて、入力画像の特徴量が抽出され、外部へ出力される。空間微分で微分画像を生成することにより、少ない演算量で高精度な特徴量抽出が可能となる。 In the above feature quantity extraction method, an input image input from the outside is smoothed, and a smoothed image group is generated. The smoothed image group is spatially differentiated to generate a differentiated image group. Based on the differential image group, the feature amount of the input image is extracted and output to the outside. By generating a differential image by spatial differentiation, highly accurate feature extraction can be performed with a small amount of computation.
本発明の他の好適な実施形態は、コンピュータにより実行される特徴量抽出プログラムであって、入力画像を平滑化して平滑化画像群を生成する平滑化手段、前記平滑化画像群を空間微分して微分画像群を生成する微分手段、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段、として前記コンピュータを機能させる。 Another preferred embodiment of the present invention is a feature amount extraction program executed by a computer, comprising: smoothing means for smoothing an input image to generate a smoothed image group; and spatially differentiating the smoothed image group. The computer is caused to function as differentiation means for generating a differential image group, and feature quantity extraction means for extracting and outputting the feature quantity of the input image based on the differential image group.
上記の特徴量抽出プログラムをコンピュータ上で実行することにより、外部から入力された入力画像が平滑化され、平滑化画像群が生成される。平滑化画像群は空間微分され、微分画像群が生成される。そして、微分画像群に基づいて、入力画像の特徴量が抽出され、外部へ出力される。空間微分で微分画像を生成することにより、少ない演算量で高精度な特徴量抽出が可能となる。好適な例では、上記のプログラムは記憶媒体に記憶される。 By executing the above feature quantity extraction program on a computer, an input image input from the outside is smoothed, and a smoothed image group is generated. The smoothed image group is spatially differentiated to generate a differentiated image group. Based on the differential image group, the feature amount of the input image is extracted and output to the outside. By generating a differential image by spatial differentiation, highly accurate feature extraction can be performed with a small amount of computation. In a preferred example, the above program is stored in a storage medium.
以下、図面を参照して本発明の好適な実施例について説明する。なお、以下に説明する実施例及び変形例に係る特徴量抽出装置において、各手段は集積回路などによるハードウェアにより実現することができ、また、コンピュータ上で実行されるソフトウェア(プログラム)により実現することもできる。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the feature quantity extraction apparatus according to the embodiments and modifications described below, each unit can be realized by hardware such as an integrated circuit, and also realized by software (program) executed on a computer. You can also
[第1実施例]
図1は、第1実施例に係る特徴量抽出装置の構成を示す。第1実施例に係る特徴量抽出装置は、画像入力手段11と、平滑化手段12と、空間微分手段13と、キーポイント検出・処理・記述手段14と、特徴量出力手段15と、を備える。
[First embodiment]
FIG. 1 shows the configuration of a feature quantity extraction apparatus according to the first embodiment. The feature quantity extraction apparatus according to the first embodiment includes an image input means 11, a smoothing means 12, a spatial differentiation means 13, a key point detection / processing / description means 14, and a feature quantity output means 15. .
画像入力手段11には、カメラなどの撮像デバイスで撮影された画像やハードディスクなどの記録デバイスに格納された画像が入力される。画像入力手段11は、その入力画像を受け取り、平滑化手段12に出力する。平滑化手段12は、画像入力手段12から入力された画像から複数の平滑化画像を生成し、それら複数の平滑化画像からなる平滑化画像群を空間微分手段13に出力する。
The image input means 11 receives an image taken by an imaging device such as a camera or an image stored in a recording device such as a hard disk. The image input means 11 receives the input image and outputs it to the smoothing means 12. The smoothing
空間微分手段13は、平滑化画像群を受け取り、複数の微分画像からなる微分画像群を生成してキーポイント検出・処理・記述手段14に出力する。キーポイント検出・処理・記述手段14は、例えば多次元ベクトルで表現される特徴量を抽出し、特徴量出力手段15に出力する。特徴量出力手段15は、キーポイント検出・処理・記述手段14から入力された特徴量を、記録デバイスやディスプレイ、又は、ほかの処理を行う処理部へ出力する。
The spatial differentiation means 13 receives the smoothed image group, generates a differential image group composed of a plurality of differential images, and outputs it to the key point detection / processing / description means 14. The key point detection / processing /
次に、第1実施例による特徴量抽出処理について詳しく説明する。 Next, the feature amount extraction process according to the first embodiment will be described in detail.
カメラなどの撮像デバイスで撮影された画像やハードディスクなどの記録デバイスに格納された入力画像は、画像入力手段11によって取り込まれ、取り込まれた画像から平滑化手段12によって平滑化度合いの異なる複数の画像である平滑化画像群が生成される。平滑化画像の生成は、例えば式(1)に示すように入力画像とガウス関数との畳み込み演算で行われる。
An image captured by an imaging device such as a camera or an input image stored in a recording device such as a hard disk is captured by the
ここでLは平滑化画像、Gはガウス関数、Iは入力画像、(x,y)と(u,v)は2次元座標、σは平滑化度合いである。平滑化画像群は、1枚の入力画像から式(1)のσの値を変えながら生成された平滑化度合いの異なる複数の画像からなる。 Here, L is a smoothed image, G is a Gaussian function, I is an input image, (x, y) and (u, v) are two-dimensional coordinates, and σ is a smoothing degree. The smoothed image group is composed of a plurality of images with different degrees of smoothing generated while changing the value of σ in Expression (1) from one input image.
次に、空間微分手段13によって、平滑化画像群のそれぞれの画像に対して空間微分が施され、微分画像群が生成される。ここで空間微分手段13はどのようなものでもよいが、例えば式(2)に示すようにラプラシアン演算(空間に関する2次微分)を平滑化画像に施してもよい。 Next, the spatial differentiation means 13 performs spatial differentiation on each image of the smoothed image group to generate a differential image group. Here, any spatial differentiation means 13 may be used, but for example, Laplacian calculation (secondary differentiation with respect to space) may be performed on the smoothed image as shown in Expression (2).
ここで、Dは微分画像、σはガウス関数の平滑化度合い、kは任意の定数、Lは平滑化画像、(x、y)は2次元座標である。微分画像群は、平滑化画像群のそれぞれの画像に対して空間微分を施して得られた画像からなる。 Here, D is a differential image, σ is a smoothing degree of a Gaussian function, k is an arbitrary constant, L is a smoothed image, and (x, y) is a two-dimensional coordinate. The differential image group consists of images obtained by performing spatial differentiation on each image of the smoothed image group.
次に、キーポイント検出・処理・記述手段14によって、微分画像群からキーポイント候補(特徴量抽出の対象となる画像上の位置の候補)が検出される。さらに、適当な手法によって特徴量として不適切なキーポイント候補が削除され、有効なキーポイントに対して例えば多次元ベクトルからなる特徴量が記述されて特徴量出力手段15へ出力される。 Next, the key point detection / processing / description means 14 detects key point candidates (candidates of positions on the image to be subjected to feature extraction) from the differential image group. Further, an inappropriate key point candidate as a feature quantity is deleted by an appropriate method, and a feature quantity composed of, for example, a multidimensional vector is described for the valid key point and output to the feature quantity output means 15.
特徴量出力手段15は、キーポイント検出・処理・記述手段14から出力された特徴量を、例えば記録デバイスへ蓄積するか、ディスプレイへ表示するか、あるいは他の処理へ出力する。 The feature quantity output means 15 stores the feature quantity output from the key point detection / processing / description means 14 in, for example, a recording device, displays it on a display, or outputs it to other processing.
キーポイント検出・処理・記述手段14による処理には、例えば非特許文献1:「コンピュータビジョン最先端ガイド2」(アドコムメディア社、2010年6月19日発行)の10ページから17ページに詳細に説明されている手法を適用することができる。以下、その概要を説明する。
For the processing by the key point detection / processing / description means 14, for example, Non-Patent Document 1: “Computer Vision State-of-the-Art Guide 2” (Adcom Media, published on June 19, 2010), page 10 to
キーポイント検出・処理・記述手段14は、(a)キーポイント候補検出処理、(b)キーポイントローカライズ処理とオリエンテーション算出処理、(c)特徴量記述処理、という3つのステップからなる。 The key point detection / processing / description means 14 includes three steps: (a) key point candidate detection processing, (b) key point localization processing and orientation calculation processing, and (c) feature amount description processing.
(a)キーポイント候補検出処理
キーポイント候補検出処理は、空間微分手段13により生成された微分画像群からキーポイントの候補を検出する処理である。すなわち平滑化度合いσiで式1により平滑化した画像(平滑化画像σiとする)に対応する微分画像(微分画像σiとする)上の注目画素pに対し、pおよびpに隣接する8個の画素を含む領域(pを中心とした9画素の矩形領域)をとる。さらに微分画像σiと隣接する2つの微分画像σi±1のそれぞれについても同様に上記矩形領域に対応する9画素をとり、pの値(微分係数)と合計26個の隣接画素の値を比較し、pの値が最大または最小である場合に注目画素pを平滑化画像σiの1つのキーポイント候補とする。この処理を微分画像群の全てに対して行うことで全てのキーポイント候補を決定する。自然画像では通常キーポイント候補は多数検出される。
(A) Key Point Candidate Detection Process The key point candidate detection process is a process for detecting key point candidates from the differential image group generated by the
(b)キーポイントローカライズ処理とオリエンテーション算出処理
キーポイントローカライズ処理は、検出されたキーポイント候補から特徴量として適切でないものを削除し有効なキーポイント候補のみを選択する処理である。すなわち、(i)ヘッセ行列を用いたエッジ上のキーポイント候補の削除、(ii)パラボラフィッティングによるキーポイント位置のサブピクセル推定、(iii)低コントラストのキーポイント削除、により有効なキーポイント候補を選択する。
(B) Key Point Localization Process and Orientation Calculation Process The key point localization process is a process for selecting only valid key point candidates by deleting those that are not suitable as feature quantities from the detected key point candidates. That is, (i) deletion of key point candidates on the edge using the Hessian matrix, (ii) sub-pixel estimation of the key point position by parabola fitting, and (iii) deletion of key points with low contrast. select.
オリエンテーション算出処理は、キーポイントローカライズ処理で選択された有効なキーポイント候補に対してそれぞれ特有のオリエンテーション(方向)を算出し、属性として付与することで画像の回転に不変な特徴量の抽出を可能にする処理である。すなわち、平滑化画像上のキーポイントの位置を中心として適当な矩形領域をとり、矩形領域内の全画素について輝度勾配を算出し、輝度勾配に関するヒストグラムを算出し、最頻値をとる勾配方向(36方向に量子化された角度)をそのキーポイントのオリエンテーションとする。 The orientation calculation process calculates the unique orientation (direction) for each valid keypoint candidate selected in the keypoint localization process, and assigns it as an attribute to extract features that are invariant to image rotation It is a process to make. That is, an appropriate rectangular area is taken around the position of the key point on the smoothed image, a luminance gradient is calculated for all the pixels in the rectangular area, a histogram relating to the luminance gradient is calculated, and the gradient direction ( (An angle quantized in 36 directions) is set as the orientation of the key point.
(c)特徴量記述処理
特徴量記述処理は、選択された有効なキーポイントとそのオリエンテーションを用いて特徴量を記述する処理である。すなわち、特徴量を記述する平滑化画像σi上のキーポイントを中心として平滑化度合いσiを半径とする円が内接する矩形領域をとり、矩形領域をまずキーポイントのオリエンテーション方向に回転する。さらに矩形領域を4×4ブロックに分割し、ブロック毎にオリエンテーションの算出と同様の方法で輝度勾配を算出し、8方向に量子化された勾配方向ヒストグラムを作成する。特徴量は4×4=16ブロックについて8方向の勾配方向ヒストグラムを作成することで、128次元のベクトルとして記述される。この特徴量は画像に回転や拡大縮小があっても不変のベクトル量であり、また各特徴量のベクトルの長さを正規化することにより、画像の明るさの変化に関しても影響の少ない特徴量となる。
(C) Feature Quantity Description Process The feature quantity description process is a process for describing a feature quantity using a selected effective key point and its orientation. That is, a rectangular area inscribed by a circle having a radius of the smoothing degree σ i around the key point on the smoothed image σ i describing the feature amount is taken, and the rectangular area is first rotated in the orientation direction of the key point. Further, the rectangular area is divided into 4 × 4 blocks, the luminance gradient is calculated for each block in the same manner as the orientation calculation, and a gradient direction histogram quantized in 8 directions is created. The feature amount is described as a 128-dimensional vector by creating a gradient histogram in 8 directions for 4 × 4 = 16 blocks. This feature quantity is an invariant vector quantity even if the image is rotated or scaled. By normalizing the length of each feature quantity vector, the feature quantity has little effect on changes in image brightness. It becomes.
[第2実施例]
図2は、第2実施例に係る特徴量抽出装置の構成を示す。図2に示すように、第2実施例に係る特徴量抽出装置は、第1実施例に係る特徴量抽出装置において、空間微分手段13をラプラシアンフィルタ手段13aとして構成したものである。
[Second Embodiment]
FIG. 2 shows the configuration of the feature quantity extraction apparatus according to the second embodiment. As shown in FIG. 2, the feature amount extraction apparatus according to the second embodiment is the same as the feature amount extraction apparatus according to the first embodiment except that the spatial differentiation means 13 is configured as a Laplacian filter means 13a.
第2実施例では、画像入力手段11から平滑化手段12まで、およびキーポイント検出・処理・記述手段14から特徴量出力手段15までは第1実施例と同様の処理であるため、第2実施例の特徴部分であるラプラシアンフィルタ手段13aの処理についてのみ説明する。 In the second embodiment, since the processing from the image input means 11 to the smoothing means 12 and the processing from the key point detection / processing / description means 14 to the feature amount output means 15 are the same as those in the first embodiment, the second embodiment Only the processing of the Laplacian filter means 13a, which is a characteristic part of the example, will be described.
ラプラシアンフィルタ手段13aは、式(1)に示す平滑化手段12によって生成された平滑化画像を受け取ると、式(3)に示す演算によって微分画像を生成し、キーポイント検出・処理・記述手段14に出力する。 When the Laplacian filter means 13a receives the smoothed image generated by the smoothing means 12 shown in Expression (1), the Laplacian filter means 13a generates a differential image by the operation shown in Expression (3), and detects the key point detection / processing / description means 14. Output to.
ここで、LiおよびDiはそれぞれ平滑化度合いσiに対応する平滑化画像および微分画像、(x、y)は2次元座標であり、式(3)により平滑化画像群(Li,i≧1)に対応する微分画像群(Di,i≧1)が生成される。 Here, Li and Di are respectively a smoothed image and a differential image corresponding to the smoothing degree σ i , and (x, y) are two-dimensional coordinates, and a smoothed image group (Li, i ≧ 1) is obtained by Expression (3). ) Is generated corresponding to the differential image group (Di, i ≧ 1).
[第3実施例]
図3は、第3実施例に係る特徴量抽出装置の構成を示す。図3に示すように、第3実施例に係る特徴量抽出装置は、第1実施例又は第2実施例と同様の構成に加えて、キーポイント検出・処理・記述手段14の前段に増幅手段16を備える。
[Third embodiment]
FIG. 3 shows the configuration of the feature quantity extraction apparatus according to the third embodiment. As shown in FIG. 3, the feature quantity extraction apparatus according to the third embodiment has the same configuration as that of the first embodiment or the second embodiment, and an amplification unit in front of the keypoint detection / processing /
第3実施例では、画像入力手段11から微分手段12まで、およびキーポイント検出・処理・記述手段14から特徴量出力手段15までは、第1実施例及び第2実施例と同様の処理であるため、第3実施例の特徴部分である増幅手段16の処理についてのみ説明する。 In the third embodiment, the processing from the image input means 11 to the differentiation means 12 and the key point detection / processing / description means 14 to the feature quantity output means 15 are the same as those in the first and second embodiments. Therefore, only the processing of the amplification means 16 that is a characteristic part of the third embodiment will be described.
増幅手段16は、空間微分手段13によって生成された式(2)に示す微分画像、または、ラプラシアンフィルタ手段13aによって生成された式(3)に示す微分画像を入力とし、微分画像の各画素の値(微分係数)を適当な演算により増幅することによって増幅画像を生成し、キーポイント検出・処理・記述手段14に出力する。増幅手段16は例えば式(4)のようなものでもよい。
The amplifying means 16 receives as input the differential image shown in Expression (2) generated by the spatial differentiating
ここで、D’,Di’は増幅画像、αは増幅率(任意の定数)、Dは微分画像、L、Liは平滑化画像、kは任意の定数(k>1)であり、(D’,D,L)および(Di’,Li)はそれぞれ平滑化度合いσおよびσiに対応している。 Here, D ′ and D i ′ are amplified images, α is an amplification factor (arbitrary constant), D is a differential image, L and L i are smoothed images, k is an arbitrary constant (k> 1), (D ′, D, L) and (D i ′, L i ) correspond to the smoothing degrees σ and σ i , respectively.
微分係数を増幅することにより、キーポイント検出処理においてより多くのキーポイント候補を検出することができ、これに伴いより多くの有効なキーポイント候補も得られる。その結果、より多くの特徴量を抽出することが可能になる。 By amplifying the differential coefficient, more key point candidates can be detected in the key point detection process, and more effective key point candidates can be obtained accordingly. As a result, it is possible to extract more feature amounts.
[先行技術との比較]
非特許文献1は、SIFTによる特徴量抽出方法について記載したものであり、図4に示すように、(図示されない)外部から画像を入力して複数の平滑化画像からなる平滑化画像群を出力する平滑化手段22と、平滑化画像群を入力して微分画像群を出力する差分手段23と、微分画像群を入力して特徴量を算出するキーポイント検出・処理・記述手段24とで構成される。
[Comparison with prior art]
Non-Patent Document 1 describes a feature amount extraction method using SIFT. As shown in FIG. 4, an image is input from the outside (not shown) and a smoothed image group including a plurality of smoothed images is output. Smoothing means 22 for inputting, a difference means 23 for inputting a smoothed image group and outputting a differential image group, and a key point detection / processing / description means 24 for inputting a differential image group and calculating a feature quantity. Is done.
ここで、本発明に関連する部分は、平滑化手段によって生成された平滑化画像群から差分手段によって微分画像群を生成し、キーポイント検出・処理・記述手段に出力する部分であり、式(5)に示すように平滑化度合いの異なる平滑化画像の差分により簡単に微分画像を生成している。 Here, the part related to the present invention is a part for generating a differential image group by the difference means from the smoothed image group generated by the smoothing means and outputting it to the key point detection / processing / description means, As shown in 5), the differential image is easily generated based on the difference between the smoothed images having different smoothing degrees.
ここで、Dは微分画像、Lは平滑化画像、Gはガウス関数、(x、y)および(u,v)は2次元座標、σは平滑化度合い、kは定数である。特に式(5)において、[ ]内はDoG(Difference of Gaussian)フィルタと呼ばれる(非特許文献のp.7〜8を参照)。 Here, D is a differential image, L is a smoothed image, G is a Gaussian function, (x, y) and (u, v) are two-dimensional coordinates, σ is a smoothing degree, and k is a constant. In particular, in Formula (5), the inside of [] is called a DoG (Difference of Gaussian) filter (refer p.7-8 of a nonpatent literature).
特許文献1は、複数のオブジェクトを含むオブジェクト画像から、検出対象となるモデルを抽出する画像認識装置およびその方法、並びにそのような画像認識機能を搭載したロボット装置に関する発明である。具体的に、オブジェクト画像およびモデル画像について、それぞれの特徴点を抽出する特徴点抽出部と、抽出された特徴点から特徴量を記述する特徴量保持部と、それぞれの特徴量から類似度の高い(オブジェクト画像とモデル画像で対応する可能性の高い特徴点ペア)を生成する特徴量比較部で構成される(特許文献1の図1およびパラグラフ0026を参照)。 Patent Document 1 is an invention related to an image recognition apparatus and method for extracting a model to be detected from an object image including a plurality of objects, and a robot apparatus equipped with such an image recognition function. Specifically, for an object image and a model image, a feature point extraction unit that extracts each feature point, a feature amount holding unit that describes a feature amount from the extracted feature points, and a high similarity from each feature amount A feature amount comparison unit that generates (a feature point pair that is highly likely to correspond between an object image and a model image) is configured (see FIG. 1 of Patent Document 1 and paragraph 0026).
ここで、本発明に関連する部分は、特徴点抽出部においてガウス関数を用いてオブジェクト画像およびモデル画像の多重解像度ピラミッド(平滑化画像群)を生成し、DoGフィルタまたはLoG(Laplacian of Gaussian)フィルタを用いて微分画像群を生成するところである(段落0029〜0032を参照)。DoGフィルタは式(5)に相当するものであり、LoGフィルタは式(6)が用いられる。 Here, a part related to the present invention is to generate a multi-resolution pyramid (smoothed image group) of an object image and a model image using a Gaussian function in a feature point extraction unit, and perform a DoG filter or a LoG (Laplacian of Gaussian) filter. Is used to generate a differential image group (see paragraphs 0029 to 0032). The DoG filter corresponds to Equation (5), and Equation (6) is used for the LoG filter.
ここで、fはLoGフィルタ、Dは微分画像、Iは入力画像、(x、y)および(u,v)は2次元座標、σは平滑化度合いである。 Here, f is a LoG filter, D is a differential image, I is an input image, (x, y) and (u, v) are two-dimensional coordinates, and σ is a smoothing degree.
非特許文献1は、平滑化手段によって生成された平滑化画像群に対して、式(5)に示す差分手段により微分画像群を生成し、キーポイント検出・処理・記述手段に与る構成である。これに対し、第1〜第3実施例は、差分手段の代わりに式(2)に示す空間微分手段13または式(3)に示すラプラシアンフィルタ手段13aにより微分画像群を生成し、キーポイント検出・処理・記述手段14に与える構成となっている。
Non-Patent Document 1 has a configuration in which a differential image group is generated by the difference means shown in Equation (5) for the smoothed image group generated by the smoothing means, and applied to the key point detection / processing / description means. is there. On the other hand, in the first to third embodiments, a differential image group is generated by the spatial differentiating
また、特許文献1では、多重解像度ピラミッド(平滑化画像群)に対してDoGフィルタを用いるか、あるいは入力画像に対してLoGフィルタを用いて微分画像群を生成している。DoGフィルタは式(5)に相当するものであり、LoGフィルタは式(6)に相当するものである。これに対し、第1〜第3実施例では、平滑化画像に対して式(2)に示す空間微分手段13または式(3)に示すラプラシアンフィルタ手段13aによって微分画像群を生成し、キーポイント検出・処理・記述手段14に与える構成となっている。
In Patent Document 1, a DoG filter is used for a multi-resolution pyramid (smoothed image group) or a differential image group is generated using a LoG filter for an input image. The DoG filter corresponds to Equation (5), and the LoG filter corresponds to Equation (6). On the other hand, in the first to third embodiments, a differential image group is generated for the smoothed image by the spatial differentiating
次に、先行技術の問題点と本発明の実施例で得られる効果を説明するために、DoGフィルタとLoGフィルタの関係について詳細に説明する。 Next, in order to explain the problems of the prior art and the effects obtained by the embodiment of the present invention, the relationship between the DoG filter and the LoG filter will be described in detail.
DoGフィルタやLoGフィルタに用いられるガウス関数(式(1))は、式(7)に示す拡散方程式を満たす。 The Gaussian function (formula (1)) used for the DoG filter or LoG filter satisfies the diffusion equation shown in formula (7).
ここで、Gはガウス関数、σは平滑化度合い、(x,y)は2次元座標である。式(7)の左辺をσについて離散化すると式(8)の近似関係が得られる(kは任意の定数)。 Here, G is a Gaussian function, σ is a smoothing degree, and (x, y) is a two-dimensional coordinate. When the left side of Equation (7) is discretized with respect to σ, the approximate relationship of Equation (8) is obtained (k is an arbitrary constant).
ここで、式(8)の左辺は式(5)に相当するDoGフィルタ、右辺の∇2Gは式(6)に相当するLoGフィルタであり、式(8)はDoGフィルタがLoGフィルタの近似になっていることを意味する。式(8)の両辺に対して入力画像Iとの畳み込み演算を行うことにより、式(9)の近似関係が得られる。 Here, the left side of Expression (8) is a DoG filter corresponding to Expression (5), ∇ 2 G on the right side is a LoG filter corresponding to Expression (6), and Expression (8) is an approximation of the DoG filter as a LoG filter. Means that By performing a convolution operation with the input image I on both sides of Equation (8), the approximate relationship of Equation (9) is obtained.
ここで、式(9)の左辺の各項は平滑化画像、左辺および右辺は微分画像に相当する。 Here, each term on the left side of Equation (9) corresponds to a smoothed image, and the left and right sides correspond to a differential image.
非特許文献1の問題点は、微分画像群の生成に、LoGフィルタの近似であるDoGフィルタ(式(9)の左辺または式(5))を用いているため、微分画像の画素値(微分係数)の精度がLoGフィルタによる結果(式(9)の右辺)に比べて劣化することである。すなわち微分画像の極値(極大値または極小値)として検出されるキーポイント候補の精度、さらには抽出される特徴量の精度も劣化するという問題がある。 The problem of Non-Patent Document 1 is that the DoG filter (the left side of Equation (9) or Equation (5)) that is an approximation of the LoG filter is used to generate the differential image group. The accuracy of the coefficient is deteriorated as compared with the result (the right side of the equation (9)) by the LoG filter. That is, there is a problem that the accuracy of the key point candidate detected as the extreme value (maximum value or minimum value) of the differential image, and further, the accuracy of the extracted feature value deteriorates.
これに対して第1〜第3実施例では、LoGフィルタに相当する結果を用いるため、微分画像をより高精度に生成することができ、結果的に特徴量の抽出精度も向上する。 On the other hand, in the first to third embodiments, since the result corresponding to the LoG filter is used, the differential image can be generated with higher accuracy, and the extraction accuracy of the feature amount is improved as a result.
特許文献1の問題点は、平滑化画像からの微分画像の生成にDoGフィルタ(式(9)の左辺または式(5))を用いれば先行技術1と同様の問題が生じ、入力からの微分画像の生成にLoGフィルタ(式9の右辺または式6)を用いれば、平滑化画像の生成とは別に入力画像とLoGフィルタとの畳み込み演算を行う必要があり、演算量が増大するということである。 The problem of Patent Document 1 is that if a DoG filter (the left side of Expression (9) or Expression (5)) is used to generate a differential image from a smoothed image, the same problem as in Prior Art 1 occurs, and the differential from the input If the LoG filter (the right side of Equation 9 or Equation 6) is used for image generation, it is necessary to perform a convolution operation between the input image and the LoG filter separately from the generation of the smoothed image, which increases the amount of calculation. is there.
これに対して第1〜第3実施例では、式(9)の右辺について、 On the other hand, in the first to third embodiments, the right side of Expression (9) is
の関係を見出すことにより、直接的にLoGフィルタとの畳み込み演算を行わずに、平滑化画像どうしの加減算のみで微分画像を生成することができるため、演算量の増加を抑えられるという利点がある。 By finding the relationship, it is possible to generate a differential image only by adding and subtracting between smoothed images without directly performing a convolution operation with the LoG filter, so that an increase in the amount of calculation can be suppressed. .
すなわち、第1〜第3実施例は、非特許文献1よりも高精度で、かつ、特許文献1よりも演算量の少ない特徴量抽出方法を与えるものである。 That is, the first to third embodiments provide a feature amount extraction method that is more accurate than Non-Patent Document 1 and has a smaller amount of calculation than Patent Document 1.
[変形例]
以下、本発明による特徴量抽出装置の変形例について説明する。
[Modification]
Hereinafter, modifications of the feature quantity extraction device according to the present invention will be described.
(第1変形例)
図5は第1変形例の構成を示す。第1変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段11の出力を入力とするグレースケール変換手段17を設け、グレースケール変換手段17の出力を平滑化手段12に与えることを特徴とする。グレースケール変換手段17は、例えば入力画像がRGB色空間(3チャンネルの画像)で表現されている場合には、画素毎に式(11)の演算を施すものでもよい。
(First modification)
FIG. 5 shows a configuration of the first modification. In the first modification, a gray
ここで、iはグレースケール画像の画素値、(r、g、b)はそれぞれ入力画像の画素値である。 Here, i is the pixel value of the grayscale image, and (r, g, b) are the pixel values of the input image.
第1変形例では、画像入力手段11と平滑化手段12の間に、グレースケール変換手段17を設けている。グレースケール変換手段17を用いることにより、複数チャンネル(カラー)からなる任意の色空間の入力画像について色成分を考慮した1チャンネルの階調値を持つ画像に変換することができ、複数チャンネルの入力画像を別々に処理する必要がないために処理量の増大を抑えることができる。
In the first modification, a gray
(第2変形例)
図6は第2変形例の構成を示す。第2変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段11の出力を入力とする色空間変換手段31と、色空間変換手段3の出力を入力とする色成分抽出手段32と、色成分抽出手段32の出力を入力とする色成分混合手段33を設け、色成分混合手段33の出力を平滑化手段12に与えることを特徴とする。
(Second modification)
FIG. 6 shows the configuration of the second modification. In the second modification, between the image input means 11 and the smoothing means 12, a color space conversion means 31 that receives the output of the image input means 11 and a color component extraction that uses the output of the color space conversion means 3 as an input. Means 32 and a color component mixing means 33 that receives the output of the color component extraction means 32 are provided, and the output of the color component mixing means 33 is given to the smoothing means 12.
第2変形例では、画像入力手段11と平滑化手段12の間に、色空間変換手段31、色成分抽出手段32、および色成分混合手段33を設けている。色空間変換手段31により入力画像の色空間から任意の色空間(通常複数チャンネルをもつ)に変換し、色成分抽出手段33によって任意の色成分を抽出できるようにすることで、その後の処理(平滑化手段12からキーポイント検出・処理・記述手段14)において、有効な特徴量抽出を行うのに適した色空間および色成分画像を選択することができ、さらに色成分混合手段33によって第1変形例と同様の効果が得られる。
In the second modification, a color
(第3変形例)
図7は第3変形例の構成を示す。第3変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段の出力を入力とするHSV色空間変換手段41と、HSV色空間変換手段41の出力を入力とするV成分抽出手段42を設け、V成分抽出手段42の出力を平滑化手段12に与えることを特徴とする。例えばRGB色空間からHSV色空間への変換は、
http://opencv.jp/opencv-1.1.0/document/opencvref_cv_filters.html#decl_cvCvtColor
に記載の方法を用いてもよい。
(Third Modification)
FIG. 7 shows the configuration of the third modification. In the third modification, between the
http://opencv.jp/opencv-1.1.0/document/opencvref_cv_filters.html#decl_cvCvtColor
May be used.
第3変形例では、画像入力手段11と平滑化手段12の間に、HSV色空間変換手段41およびV成分抽出手段42を設けている。平滑化画像をV成分(明度)の画像から生成することにより、第1変形例と同様の効果が得られる。
In the third modification, an HSV color
なお、図7の例では、HSVの成分のうちのV成分を用いているが、その代わりにH成分又はS成分を用いてもよい。また、色空間としては、HSV色空間以外の色空間を利用してもよい。 In the example of FIG. 7, the V component of the HSV components is used, but an H component or an S component may be used instead. Further, a color space other than the HSV color space may be used as the color space.
(第4変形例)
図8は第4変形例の構成を示す。第4変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段の出力を入力とするHSV色空間変換手段51と、HSV色空間変換手段51の出力を入力とする(S,V)成分抽出手段52と、(S,V)成分抽出手段52の出力を入力とする(S,V)成分単純平均手段53を設け、(S,V)単純平均手段53の出力を平滑化手段12に与えることを特徴とする。(S,V)成分単純平均手段53は、例えば画素毎に式(12)を施すものでもよい。
(Fourth modification)
FIG. 8 shows the configuration of the fourth modification. In the fourth modified example, between the
ここで、iは単純平均された画像の画素値、sおよびvはそれぞれHSV空間における画素のs成分およびv成分の画素値である。 Here, i is a pixel value of a simple averaged image, and s and v are pixel values of the s component and v component of the pixel in the HSV space, respectively.
第4変形例では、画像入力手段11と平滑化手段12の間に、HSV色空間変換手段51、(S,V)成分抽出手段52、および(S,V)成分単純平均手段53を設けている。第2変形例における色空間変換手段32を入力画像の色空間からHSV色空間へ変換する処理とし、色成分抽出手段32を(H,S,V)成分から(S,V)成分画像を選択する処理とし、色成分混合手段33を式(12)によりS成分画像とV成分画像の単純平均を行う処理に置き換えることで、第2変形例と同様の効果が得られる。
In the fourth modification, an HSV color
(第5変形例)
図9は、第5変形例の構成を示す。第5変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段の出力を入力とするHSV色空間変換手段51と、HSV色空間変換手段51の出力を入力とする(S,V)成分抽出手段52と、(S,V)成分抽出手段52の出力を入力とする(S,V)成分2乗平均手段54を設け、(S,V)成分2乗平均手段54の出力を平滑化手段12に与えることを特徴とする。(S,V)成分2乗平均手段54は、例えば画素毎に式(13)を施すものでもよい。なお、式(13)において、i,s,vは式(12)と同様である。
(5th modification)
FIG. 9 shows the configuration of the fifth modification. In the fifth modification, between the image input means 11 and the smoothing means 12, the output of the HSV color space conversion means 51 that receives the output of the image input means and the output of the HSV color space conversion means 51 are input (S , V) component extraction means 52 and (S, V) component mean square means 54, which receives the output of the (S, V) component extraction means 52 as inputs, are provided. The output is supplied to the smoothing means 12. The (S, V) component mean square means 54 may, for example, apply the equation (13) for each pixel. In equation (13), i, s, and v are the same as in equation (12).
第5変形例では、画像入力手段11と平滑化手段12の間に、HSV色空間変換手段51、(S,V)成分抽出手段52、および(S,V)成分2乗平均手段54を設けている。第4変形例における(S,V)成分単純平均手段53を、式(13)によりS成分とV成分の2乗平均を行う処理とすることで、第4変形例と同様の効果が得られる。
In the fifth modification, an HSV color
本発明は、特徴量を用いた画像認識技術、画像監視技術、および画像編集技術とこれらの技術を組み込んだソフトウェアやハードウェア、たとえばコンピュータシステムや車載機器、オーディオビジュアル機器、ゲーム機器、およびディジタルサイネージ機器などに利用可能である。 The present invention relates to an image recognition technique, an image monitoring technique, an image editing technique, and software and hardware incorporating these techniques, such as a computer system, an in-vehicle device, an audio-visual device, a game device, and a digital signage. It can be used for equipment.
11 画像入力手段
12 平滑化手段
13 空間微分手段
13a ラプラシアンフィルタ手段
14 キーポイント検出・処理・記述手段
15 特徴量出力手段
DESCRIPTION OF
Claims (10)
前記平滑化画像群を空間微分して微分画像群を生成する微分手段と、
前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段と、
を備えることを特徴とする特徴量抽出装置。 Smoothing means for smoothing an input image to generate a smoothed image group;
Differential means for spatially differentiating the smoothed image group to generate a differential image group;
Feature quantity extraction means for extracting and outputting the feature quantity of the input image based on the differential image group;
A feature quantity extraction device comprising:
色空間変換後の入力画像から1つの色成分を抽出して前記平滑化手段に入力する色成分抽出手段と、
を備えることを特徴とする請求項1乃至3のいずれか一項に記載の特徴量抽出装置。 Color space conversion means for converting the color space of the input image;
Color component extraction means for extracting one color component from the input image after color space conversion and inputting it to the smoothing means;
The feature quantity extraction device according to any one of claims 1 to 3, further comprising:
色空間変換後の入力画像から複数の色成分を抽出する色成分抽出手段と、
抽出された複数の色成分について任意の演算を行い前記平滑化手段に入力する演算手段と、
を備えることを特徴とする請求項1乃至3のいずれか一項に記載の特徴量抽出装置。 Color space conversion means for converting the color space of the input image;
Color component extraction means for extracting a plurality of color components from the input image after color space conversion;
Arithmetic means for performing an arbitrary calculation on the plurality of extracted color components and inputting to the smoothing means;
The feature quantity extraction device according to any one of claims 1 to 3, further comprising:
入力画像を平滑化して平滑化画像群を生成する平滑化工程と、
前記平滑化画像群を空間微分して微分画像群を生成する微分工程と、
前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出工程と、
を有することを特徴とする特徴量抽出方法。 A feature amount extraction method executed by a feature amount extraction apparatus,
A smoothing step of smoothing the input image to generate a smoothed image group;
A differentiation step of spatially differentiating the smoothed image group to generate a differential image group;
A feature amount extraction step of extracting and outputting a feature amount of the input image based on the differential image group;
A feature quantity extraction method characterized by comprising:
入力画像を平滑化して平滑化画像群を生成する平滑化手段、
前記平滑化画像群を空間微分して微分画像群を生成する微分手段、
前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段、として前記コンピュータを機能させることを特徴とする特徴量抽出プログラム。 A feature extraction program executed by a computer,
Smoothing means for smoothing an input image to generate a smoothed image group;
Differentiating means for generating a differential image group by spatially differentiating the smoothed image group,
A feature quantity extraction program for causing the computer to function as feature quantity extraction means for extracting and outputting a feature quantity of the input image based on the differential image group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012045780A JP2013182416A (en) | 2012-03-01 | 2012-03-01 | Feature amount extraction device, feature amount extraction method, and feature amount extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012045780A JP2013182416A (en) | 2012-03-01 | 2012-03-01 | Feature amount extraction device, feature amount extraction method, and feature amount extraction program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013182416A true JP2013182416A (en) | 2013-09-12 |
Family
ID=49273020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012045780A Pending JP2013182416A (en) | 2012-03-01 | 2012-03-01 | Feature amount extraction device, feature amount extraction method, and feature amount extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013182416A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015225664A (en) * | 2014-05-28 | 2015-12-14 | 廣達電腦股▲分▼有限公司 | Information taking-in device and information taking-in method |
JP2017219984A (en) * | 2016-06-07 | 2017-12-14 | 大日本印刷株式会社 | Image retrieval system, image dictionary creation system, image processing system and program |
JP2019520662A (en) * | 2016-04-14 | 2019-07-18 | アデル ビルジサヤール ヒズメトレリ ヴィイー ティカレット エイ.エス. | Content-based search and retrieval of trademark images |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128619A (en) * | 2003-10-21 | 2005-05-19 | Konica Minolta Holdings Inc | Object measurement apparatus, object measurement method, and program |
JP2010108476A (en) * | 2008-10-03 | 2010-05-13 | Sony Corp | Learning apparatus and method, recognition apparatus and method, program, and recording medium |
-
2012
- 2012-03-01 JP JP2012045780A patent/JP2013182416A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128619A (en) * | 2003-10-21 | 2005-05-19 | Konica Minolta Holdings Inc | Object measurement apparatus, object measurement method, and program |
JP2010108476A (en) * | 2008-10-03 | 2010-05-13 | Sony Corp | Learning apparatus and method, recognition apparatus and method, program, and recording medium |
Non-Patent Citations (5)
Title |
---|
JPN6015048937; 市村 直幸: '"密なエッジサンプリングに基づく局所不変特徴量による対応付け"' 電子情報通信学会技術研究報告 Vol.109, No.88, 20090611, pp.71-76, 社団法人電子情報通信学会 * |
JPN6015048939; 瓶子 義晴、山中 高夫: '"一般物体認識における色情報の活用手法の検討"' 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011 , 20110720, pp.323-330, 情報処理学会 * |
JPN6015048942; 市村 直幸: '"正規化LoG関数の近似に基づく局所不変特徴量の抽出"' 情報処理学会研究報告 Vol.2008, No.27, 20080310, pp.449-456, 社団法人情報処理学会 * |
JPN6015048945; 市村 直幸: '"近似LoGフィルタを用いた局所不変特徴量の抽出"' 電子情報通信学会技術研究報告 Vol.108, No.328, 20081120, pp.243-250, 社団法人電子情報通信学会 * |
JPN6015048948; 藤吉 弘亘: '"Gradientベースの特徴抽出 -SIFTとHOG-"' 情報処理学会研究報告 Vol.2007, No.87, 20070903, pp.211-224, 社団法人情報処理学会 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015225664A (en) * | 2014-05-28 | 2015-12-14 | 廣達電腦股▲分▼有限公司 | Information taking-in device and information taking-in method |
JP2019520662A (en) * | 2016-04-14 | 2019-07-18 | アデル ビルジサヤール ヒズメトレリ ヴィイー ティカレット エイ.エス. | Content-based search and retrieval of trademark images |
JP2017219984A (en) * | 2016-06-07 | 2017-12-14 | 大日本印刷株式会社 | Image retrieval system, image dictionary creation system, image processing system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10388018B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20130315470A1 (en) | Body measurement | |
JP6716996B2 (en) | Image processing program, image processing apparatus, and image processing method | |
CN107945221B (en) | Three-dimensional scene feature expression and high-precision matching method based on RGB-D image | |
US9524445B2 (en) | Methods and systems for suppressing non-document-boundary contours in an image | |
US10692215B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20140050411A1 (en) | Apparatus and method for generating image feature data | |
US9245194B2 (en) | Efficient line detection method | |
JP6317725B2 (en) | System and method for determining clutter in acquired images | |
EP3300025A1 (en) | Image processing device and image processing method | |
WO2017163384A1 (en) | Data processing device, data processing method, and data processing program | |
KR101478709B1 (en) | Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image | |
CN110598795A (en) | Image difference detection method and device, storage medium and terminal | |
Sidhu | Improved canny edge detector in various color spaces | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
JP2011150483A (en) | Image processing device | |
JP2014123230A (en) | Image processor, image processing method, and program | |
JP2013182416A (en) | Feature amount extraction device, feature amount extraction method, and feature amount extraction program | |
CN104655041B (en) | A kind of industrial part contour line multi-feature extraction method of additional constraint condition | |
US9098746B2 (en) | Building texture extracting apparatus and method thereof | |
JP2012048326A (en) | Image processor and program | |
JP2016058018A (en) | Image processing method, image processing program and image processor | |
KR101546200B1 (en) | Method and Device for Matching Correspondaence Point of Multi Spectral Images | |
Bhatia et al. | Accurate corner detection methods using two step approach | |
Sintunata et al. | Skeleton extraction in cluttered image based on Delaunay triangulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160405 |